In einem aufschlussreichen Interview mit der „Zeit“ teilt OpenAI-CEO Sam Altman seine Einsichten zur KI-Zukunft und den Herausforderungen im Datenschutz.
Sam Altman, CEO von OpenAI, spricht in einem Interview mit der „Zeit“ über eine Reihe von Themen, die den Kern der aktuellen KI-Diskussion treffen. Altman betont die Bedeutung des Datenschutzes und die Notwendigkeit einer neuen Datenschutzkategorie, die spezifische Ausnahmen wie bei Eingaben zu einem Suizid regelt. Er offenbart, dass er seine Unterhaltungen mit ChatGPT als sehr persönlich ansieht und diese nicht teilen würde, was die Dringlichkeit eines angepassten Datenschutzrahmens unterstreicht.
Mit der Entwicklung und dem Rollout von GPT-3.5 und später GPT-4 hat OpenAI bewusst einen schrittweisen Ansatz gewählt. Altman betont, dass es wichtig war, die Gesellschaft schrittweise an die Technologie heranzuführen, anstatt sie mit einer revolutionären Veröffentlichung zu überfordern. Dieser Ansatz habe auch Zeit gegeben, die Sicherheitsaspekte der Technologie gründlich zu erforschen.
Das Interview berührt auch die Bedenken hinsichtlich einer Überregulierung. Altman erkennt an, dass Gespräche mit Regierungsvertretern, einschließlich des deutschen Bundeskanzlers Olaf Scholz, stattgefunden haben und dass eine Form der Regulierung unvermeidlich ist. Er warnt jedoch vor einer Überregulierung, die die Vorteile der KI-Technologie zunichtemachen könnte.
Interessanterweise stellt Altman klar, dass OpenAI nicht plant, sich aus Europa zurückzuziehen. Trotz der Herausforderungen, die der EU AI Act mit sich bringt, insbesondere in Bezug auf die Verantwortlichkeit, ist OpenAI bestrebt, sich an die Vorgaben zu halten. Die Zukunft sieht Altman in der Entwicklung von autodidaktischen Systemen, die noch mehr aus Daten lernen können, was die Möglichkeiten von KI weiter vorantreibt.
Abschließend äußert sich Altman zu den potenziellen Gefahren von Desinformation und der Nutzung von KI für Cyberangriffe und die Herstellung biologischer Waffen. Die Fähigkeit, zwischen Mensch und Maschine zu unterscheiden, wird immer schwieriger, was die Notwendigkeit unterstreicht, ethische und sicherheitsrelevante Aspekte in den Mittelpunkt der KI-Entwicklung zu stellen.