In einer überraschenden Wendung warnt Alphabet seine Mitarbeiter vor der Nutzung generativer KI-Technologien, einschließlich des eigenen Chatbots Bard.
Alphabet, das Mutterunternehmen von Google, hat in einer internen Mitteilung seine Mitarbeiter dazu aufgerufen, die Nutzung generativer KI-Technologien zu meiden. Dies schließt ausdrücklich den firmeneigenen Chatbot Bard ein. Grund für diese unerwartete Maßnahme sind Datenschutzbedenken und das Risiko der unfreiwilligen Offenlegung sensibler Informationen. Ein am 1. Juni 2023 veröffentlichter Datenschutzhinweis mahnt, keine vertraulichen Daten in die Bard-Konversationen einzugeben. Dies betrifft speziell Google-Ingenieure, die angehalten sind, Bard nicht für die Analyse oder Reproduktion von Code zu nutzen.
Die Bedenken sind nicht unbegründet: Menschliche Prüfer könnten theoretisch die Eingaben in den Chatbots lesen, und die KI selbst könnte während des Trainingsprozesses aufgenommene Daten reproduzieren. Dies stellt ein erhebliches Sicherheitsrisiko dar, besonders für die wertvollen Codezeilen der Google-Ingenieure. Angesichts der Tatsache, dass Milliarden im Rennen um die beste KI-Technologie auf dem Spiel stehen und Bard bereits in über 180 Ländern eingeführt wurde, ist die Entscheidung von Google, zur Vorsicht zu mahnen, besonders bemerkenswert.
Interessanterweise setzt sich Google damit in Kontrast zu anderen großen Unternehmen wie SAP, die generative KI aktiv in ihre Arbeitsprozesse integrieren. Währenddessen schränken Unternehmen wie Samsung und große Wall-Street-Banken die Nutzung generativer KI stark ein oder verbieten sie gänzlich. Auch deutsche Konzerne wie Mercedes-Benz und Volkswagen prüfen derzeit den möglichen Einsatz dieser Technologien mit Vorsicht.