2. Dezember 2024

Moralische Entscheidungen vorhersagen: OpenAI finanziert KI-Forschung

Kann KI moralische Entscheidungen treffen? OpenAI fördert ein Forschungsprojekt an der Duke Universität, das diese Frage beantworten möchte.

OpenAI hat eine Forschungsinitiative an der Duke Universität ins Leben gerufen, die sich mit der moralischen Entscheidungsfindung durch KI beschäftigt. Geleitet wird das Projekt von Schaich Borg, einer Expertin für soziale Kognitionen, Empathie und moralische KI. Das Ziel der Forschung ist es, sicherzustellen, dass Künstliche Intelligenz mit menschlichen Werten in Einklang handelt. Ruth Chang, Philosophin und Beraterin im Projekt, unterstreicht die Bedeutung dieser Werteanpassung, da KI ohne diesen Aspekt nur eingeschränkten Nutzen haben könnte.

Der Fokus der Forschung liegt auf moralischen Entscheidungen in sensiblen Bereichen wie Medizin, Justiz und Wirtschaft. Hier soll untersucht werden, wie KI-Systeme Entscheidungsprozesse vorhersehen können. Aktuelle generative KI-Modelle, die auf menschlichem Entscheidungsverhalten basieren, zeigen jedoch Schwächen: Sie bleiben anfällig für Missbrauch und können nicht vollständig robust entwickelt werden. Laut den Forschern bleibt daher der Mensch in letzter Instanz für Entscheidungen verantwortlich. Zudem ist die Definition von Moral eine Herausforderung. Philosophen diskutieren seit Jahrhunderten darüber, was moralisch oder ethisch korrekt ist. Diese Komplexität erschwert die Entwicklung einer KI, die innerhalb klar definierter moralischer Grenzen operieren soll. Die beteiligten Wissenschaftler, darunter Borg, Sinnott-Armstrong und Conitzer, setzen sich in einem Buch mit der Frage auseinander, wie KI fair und sicher gestaltet werden kann.


Wir führen seit Jahren Beratung zu KI (Künstlicher Intelligenz) für KMUs (Klein- und Mittelständische Unternehmen) erfolgreich durch.

Mehr zu aktuellen Themen der #KI (Künstlichen Intelligenz) oder zu

Ihrem individuellen, optimalen "KI-Masterplan" für Ihr Unternehmen finden Sie in unserem Newsletter.

Abonnieren Sie den Newsletter hier:


Tags


Das könnte Sie auch interessieren

Abonnieren Sie jetzt unseren Newsletter!

>