Allgemein
Radzivon Alkhovik
Low-Code-Automatisierungs-Enthusiast
9. Juli 2024
In einem bahnbrechenden Experiment hat Anthropic, ein führender KI-Forschungsunternehmenhat mit dem Collective Intelligence Project zusammengearbeitet, um eine Verfassung für eine KI-System unter Verwendung von Input aus einer vielfältigen Stichprobe der amerikanischen Öffentlichkeit. Der neuartige Ansatz, „Constitutional AI“ genannt, zielt darauf ab, transparente und rechenschaftspflichtige KI-Systeme zu schaffen, indem rechtliche und ethische Prinzipien direkt in den Trainingsprozess der KI eingebettet werden.
Dieser Artikel befasst sich mit den Feinheiten dieser innovativen Forschung und untersucht die Methodik, Erkenntnisse und weitreichenden Auswirkungen auf die Zukunft der KI-Governance in einer Zeit, in der fortgeschrittene Sprachmodelle zunehmend in entscheidende Sektoren wie Governance, Justiz und Politikgestaltung integriert werden.
Die zentralen Thesen: Das gemeinsame Experiment von Anthropic und dem Collective Intelligence Project hat zu einer „öffentlichen Verfassung“ für ein KI-System geführt, die von einer repräsentativen Stichprobe von etwa 1,000 Amerikanern entworfen wurde. Die öffentliche Verfassung betont Objektivität, Unparteilichkeit und Zugänglichkeit, und die darauf trainierten Modelle zeigen eine vergleichbare Leistung wie die Modelle, die mit der Verfassung von Anthropic trainiert wurden, weisen jedoch eine geringere Voreingenommenheit auf. Das Experiment verdeutlicht die Herausforderungen und Überlegungen bei der Einbeziehung demokratischer Eingaben in die KI-Entwicklung, stellt aber einen bedeutenden Schritt in Richtung der Ausrichtung fortgeschrittener Sprachmodelle an menschlichen Werten dar.
Constitutional AI ist eine bahnbrechende Methode, die von Anthropic entwickelt wurde, um sicherzustellen, dass KI-Systeme im Einklang mit expliziten normativen Prinzipien arbeiten, ähnlich wie eine Verfassung das Verhalten einer Nation regelt. Im Mittelpunkt von Anthropic Constitutional AI steht die Definition einer Reihe von Werten und Prinzipien auf hoher Ebene, die als Orientierungsrahmen für die KI dienen. Diese Prinzipien werden sorgfältig ausgearbeitet, um sicherzustellen, dass die Handlungen der KI mit gesellschaftlichen Normen und Erwartungen übereinstimmen, nützliche Verhaltensweisen fördern und gleichzeitig das Potenzial für schädliche Ergebnisse minimieren.
Um diese Prinzipien wirksam in die KI zu integrieren, verwendet Constitutional AI fortschrittliche Techniken wie:
Ein weiterer wichtiger Aspekt der Verfassungs-KI ist die sorgfältige Pflege der Trainingsdaten und der Architektur der KI. Durch sorgfältige Auswahl und Vorverarbeitung der Daten, mit denen die KI trainiert wird, können Forscher sicherstellen, dass das System einem ausgewogenen und repräsentativen Satz von Beispielen ausgesetzt ist, die die gewünschten Verhaltensweisen und Werte verstärken. Darüber hinaus ist die Architektur der KI selbst so konzipiert, dass sie die Übereinstimmung mit den Verfassungsprinzipien fördert, indem sie Mechanismen integriert, die hilfreiche, harmlose und ehrliche Ergebnisse fördern.
Indem diese Prinzipien direkt in den Entscheidungsprozess der KI eingebettet werden, zielt Constitutional AI darauf ab, Systeme zu schaffen, die proaktiv danach streben, innerhalb vordefinierter ethischer und rechtlicher Grenzen zu agieren. Das bedeutet, dass die KI aktiv danach strebt:
Ziel ist es, sich zu entwickeln KI-Systeme die nicht nur über hohe Fähigkeiten verfügen, sondern auch von Natur aus mit menschlichen Werten und gesellschaftlichen Erwartungen im Einklang stehen.
Die Entwicklung einer verfassungskonformen KI stellt einen bedeutenden Fortschritt im Bereich der KI-Governance und -Ethik dar. Indem Forscher einen klaren Satz normativer Prinzipien festlegen und diese in die Kernfunktionalität der KI einbetten, können sie Systeme schaffen, die transparenter, rechenschaftspflichtiger und vertrauenswürdiger sind. Dieser Ansatz hat das Potenzial, viele der Risiken und Herausforderungen zu mildern, die mit dem Einsatz von KI in kritischen Bereichen wie Governance, Justiz und Politikgestaltung verbunden sind, und sicherzustellen, dass diese Systeme im Dienste des Gemeinwohls arbeiten.
Die Entwicklung einer verfassungsmäßigen KI wird von mehreren zwingenden Motiven vorangetrieben, die sich mit den kritischen Herausforderungen befassen, die sich durch die zunehmende Integration von KI-Systemen in verschiedene Aspekte der Gesellschaft ergeben:
Zusammenfassend lässt sich sagen, dass Constitutional AI durch die dringende Notwendigkeit motiviert ist, sicherzustellen, dass KI-Systeme ethisch, gesetzeskonform und vertrauenswürdig funktionieren. Da diese Technologien zunehmend in kritische Bereiche und Entscheidungsprozesse integriert werden, bietet Constitutional AI ein leistungsstarkes Tool zur Schaffung von KI-Systemen, die transparent, rechenschaftspflichtig und von Natur aus mit den Prinzipien unserer Gesellschaft im Einklang stehen. Indem wir der Entwicklung und Bereitstellung von Constitutional AI Priorität einräumen, können wir das immense Potenzial dieser Technologien freisetzen und gleichzeitig die Risiken und Herausforderungen, die sie mit sich bringen, mindern.
Latenodes nahtlose Integration mit Anthropics Constitutional AI bietet Benutzern ein effizientes Tool, um KI-Systeme zu nutzen, die mit öffentlichen Werten im Einklang stehen, ohne die Komplexität der Verwaltung der Trainingsinfrastruktur des Modells. Der intuitive visuelle Editor der Plattform vereinfacht den Prozess der Integration von Constitutional AI mit anderen Systemen über APIs, sodass Organisationen ethische KI-Prinzipien mühelos in ihre Automatisierungsprozesse integrieren können. Durch die Verwendung von Latenode können Benutzer bequem auf die Funktionen von Constitutional AI zugreifen, einschließlich der Funktionen zur Voreingenommenheitsminderung, ethischen Entscheidungsfindung und Einhaltung gesetzlicher Vorschriften. Die Integration ermöglicht es Benutzern auch, nahtlos zwischen verschiedenen Konfigurationen von Anthropic Constitutional AI zu wechseln, je nach ihren spezifischen Anforderungen und ihrem Budget. So ist es beispielsweise unkompliziert, ein Skript für einen Kundendienst-Chatbot zu erstellen, der unvoreingenommene und ethische Antworten liefert.
So sieht das Skript aus:
Und hier ist das Ergebnis dieses Szenarios, in dem ein bereits erstellter Chatbot mit Latenode eine unvoreingenommene Antwort auf eine Kundenanfrage liefert:
Es gibt einen Teil der ...
Weitere Informationen zu diesem Skript und zur Integration mit Latenode finden Sie in diesem Artikel. Die Integration mit Latenode bietet einige wichtige Vorteile:
Wenn Sie Hilfe oder Rat bei der Erstellung Ihres eigenen Skripts benötigen oder dieses Skript replizieren möchten, wenden Sie sich an Unsere Discord Community, wo die Experten für Low-Code-Automatisierung sitzen.
Um das Potenzial für eine Demokratisierung der Entwicklung anthropischer konstitutioneller KI zu erkunden, Anthropic kooperiert mit der Collective Intelligence Projekt zur Durchführung eines öffentlichen Eingabeprozesses mithilfe der Polis-Plattform. Ziel war es, eine repräsentative Stichprobe von ca. 1,000 Erwachsenen in den USA in die Ausarbeitung einer Verfassung für ein KI-System einzubeziehen. Die Teilnehmer wurden aufgefordert, normative Prinzipien vorzuschlagen und darüber abzustimmen, um so zur gemeinsamen Entwicklung eines Richtliniensatzes für das Verhalten der KI beizutragen.
Bei der Gestaltung des öffentlichen Eingabeprozesses waren mehrere wichtige Entscheidungen zu treffen:
Der öffentliche Eingabeprozess brachte eine Fülle von von den Teilnehmern erarbeiteten Prinzipien hervor, die zu einer kohärenten „öffentlichen Verfassung“ zusammengefasst wurden. Zwar gab es in Bezug auf Kernkonzepte und Werte eine moderate Überschneidung von etwa 50 % mit der internen Verfassung von Anthropic, doch wies die öffentliche Verfassung mehrere bemerkenswerte Unterschiede auf:
Diese Unterschiede unterstreichen, wie wichtig es ist, bei der Gestaltung der ethischen Grundlagen von KI-Systemen unterschiedliche öffentliche Perspektiven einzubeziehen.
Um die Auswirkungen der öffentlich zugänglichen Verfassung zu bewerten, trainierte Anthropic zwei Varianten seines KI-Modells, Claude - eines anhand der öffentlichen Verfassung (öffentliches Modell) und ein anderes anhand der ursprünglichen internen Verfassung (Standardmodell). Diese Modelle wurden zusammen mit einem Kontrollmodell einer strengen Bewertung in mehreren Dimensionen unterzogen:
Diese Auswertungen liefern wertvolle Erkenntnisse zur Wirksamkeit von Constitutional AI bei der Anpassung von Sprachmodellen an öffentlich festgelegte Werte und Prinzipien.
Der Prozess des Trainierens eines KI-Modells auf der Grundlage qualitativer öffentlicher Eingaben stellte eine Reihe einzigartiger Herausforderungen dar und erforderte in jeder Phase sorgfältige Überlegungen:
Diese Erkenntnisse unterstreichen die Vielschichtigkeit der Abstimmung von KI mit öffentlichen Werten und die Bedeutung einer sorgfältigen Berücksichtigung der damit verbundenen sozialen, technischen und ethischen Aspekte.
Das von Anthropic und dem Collective Intelligence Project durchgeführte Constitutional AI-Experiment hat tiefgreifende Auswirkungen auf die Zukunft der KI-Entwicklung und -Steuerung:
Mit Blick auf die Zukunft möchten die Forscher auf dieser Grundlagenarbeit aufbauen, indem sie ihre Methoden verfeinern, gezieltere Bewertungen entwerfen und die Skalierbarkeit und Generalisierbarkeit des Constitutional AI-Ansatzes untersuchen. Einige mögliche zukünftige Richtungen sind:
Da sich der Bereich der künstlichen Intelligenz weiterhin in beispiellosem Tempo weiterentwickelt, werden die aus diesem Experiment gewonnenen Erkenntnisse zweifellos die Richtung künftiger Forschungs- und Entwicklungsbemühungen bestimmen.
Das Collective Constitutional AI-Experiment von Anthropic und dem Collective Intelligence Project ist ein bahnbrechender Meilenstein in der Demokratisierung der KI-Entwicklung. Durch die Einbeziehung der Öffentlichkeit in die Schaffung einer KI-Verfassung legt diese Forschung den Grundstein für einen umfassenderen, transparenteren und verantwortungsvolleren Ansatz zur KI-Governance. Die Ergebnisse unterstreichen den Wert unterschiedlicher Perspektiven und die Herausforderungen bei der Abstimmung fortgeschrittener Sprachmodelle mit gesellschaftlichen Werten.
Verfassungsmäßige KI erweist sich als vielversprechender Rahmen, um sicherzustellen, dass leistungsstarke KI-Technologien dem Gemeinwohl dienen. Indem wir menschliche Werte in den Mittelpunkt der KI-Entwicklung stellen, können wir das Potenzial dieser Systeme nutzen und gleichzeitig Risiken und unbeabsichtigte Folgen abmildern.
Die Reise hin zu einer wahrhaft demokratischen und wertorientierten KI ist jedoch noch lange nicht zu Ende. Das Experiment ist ein Aufruf zu weiterer Zusammenarbeit, Forschung und öffentlichem Engagement bei der Gestaltung der Zukunft der KI. Durch die kollektive Weisheit und Beteiligung verschiedener Interessengruppen können wir einen Kurs in Richtung einer KI-gestützten Zukunft einschlagen, die Transparenz, Rechenschaftspflicht und Übereinstimmung mit menschlichen Werten aufrechterhält.
Die Erkenntnisse aus diesem bahnbrechenden Experiment werden zukünftige Bemühungen auf diesem Gebiet beeinflussen und inspirieren. Indem wir auf den Grundlagen aufbauen, die Anthropic und das Collective Intelligence Project gelegt haben, können wir auf eine Zukunft hinarbeiten, in der KI-Systeme technologisch fortschrittlich, ethisch fundiert und sozial verantwortlich sind. Der Weg vor uns mag herausfordernd sein, aber die potenziellen Belohnungen – eine Welt, in der KI und Menschlichkeit in Harmonie zusammenarbeiten – sind die Mühe wert.
Constitutional AI zeichnet sich dadurch aus, dass es sich darauf konzentriert, hochrangige Werte und Prinzipien direkt in den Trainingsprozess des KI-Systems einzubetten. Anstatt sich ausschließlich auf externe Einschränkungen oder Kontrolle zu verlassen, zielt Constitutional AI darauf ab, KI-Systeme zu schaffen, die von Natur aus mit gesellschaftlichen Normen und Erwartungen übereinstimmen.
Die Forscher arbeiteten mit dem Umfrageunternehmen PureSpectrum zusammen, um eine repräsentative Stichprobe von etwa 1,000 Erwachsenen in den USA zu rekrutieren. Bei der Auswahl wurden demografische Faktoren wie Alter, Geschlecht, Einkommen und geografische Lage berücksichtigt, um einen vielfältigen und umfassenden Teilnehmerpool zu gewährleisten. Darüber hinaus wurden Screening-Kriterien eingesetzt, um die Vertrautheit der Teilnehmer mit KI-Konzepten einzuschätzen.
Die Wahl fiel auf die Polis-Plattform, da sie sich als nachweislich erfolgreich bei der Förderung produktiver Online-Beratungen und Konsensbildung erwiesen hat. Ihre kollaborativen Funktionen, die es den Teilnehmern ermöglichen, sich mit den Ideen der anderen auseinanderzusetzen und auf ihnen aufzubauen, waren für die Ziele des Constitutional AI-Experiments gut geeignet. Die Forscher hatten zudem bereits Erfahrung in der Zusammenarbeit mit dem Polis-Team, was eine durchdachtere und effektivere Umsetzung des öffentlichen Eingabeprozesses ermöglichte.
Um die Integrität des öffentlichen Eingabeprozesses zu wahren, legten die Forscher klare Moderationskriterien fest. Aussagen, die als hasserfüllt, unsinnig, doppelt, irrelevant, schlecht formatiert oder technisch nicht durchführbar erachtet wurden, wurden entfernt. Dieser Moderationsprozess umfasste eine Kombination aus vordefinierten Richtlinien und subjektiven Urteilen des Forschungsteams.
Während es in Bezug auf Kernkonzepte und Werte eine moderate Überschneidung von etwa 50 % zwischen der öffentlichen Verfassung und der internen Verfassung von Anthropic gab, wies die öffentliche Verfassung einige bemerkenswerte Unterschiede auf. Sie legte einen stärkeren Schwerpunkt auf Objektivität, Unparteilichkeit und Zugänglichkeit und neigte dazu, die Förderung erwünschten Verhaltens gegenüber der Verhinderung unerwünschten Verhaltens zu priorisieren. Darüber hinaus waren die meisten Grundsätze der öffentlichen Verfassung Originalbeiträge der Teilnehmer und nicht aus bestehenden Veröffentlichungen oder Rahmenwerken entnommen.
Die anhand der öffentlichen Verfassung trainierten Modelle (öffentliche Modelle) zeigten in Bezug auf Sprachverständnis und wahrgenommene Hilfsbereitschaft eine vergleichbare Leistung wie die anhand der Verfassung von Anthropics trainierten Modelle (Standardmodelle). Die öffentlichen Modelle zeigten jedoch eine geringere Voreingenommenheit in verschiedenen sozialen Dimensionen, gemessen am BBQ-Framework (Bias Benchmark for QA). Dieses Ergebnis deutet darauf hin, dass die Einbeziehung öffentlicher Eingaben möglicherweise Voreingenommenheit abmildern und die Fairness in KI-Systemen fördern kann.
Der Prozess des Trainierens eines KI-Modells auf der Grundlage qualitativer öffentlicher Eingaben war mit mehreren Herausforderungen verbunden. Dazu gehörten die Sicherstellung einer repräsentativen Teilnehmerauswahl, eine effektive Moderation der Beiträge und die Abwägung einer getreuen Darstellung der öffentlichen Meinung mit den technischen Einschränkungen des Verfassungs-KI-Trainings. Die Forscher mussten auch die Komplexität der Übersetzung öffentlicher Aussagen in umsetzbare KI-Prinzipien bewältigen und geeignete Bewertungsmaßstäbe auswählen, um die Übereinstimmung der resultierenden Modelle mit ihren Verfassungen zu beurteilen.
Das von Anthropic und dem Collective Intelligence Project durchgeführte Constitutional AI-Experiment hat erhebliche Auswirkungen auf die Zukunft der KI-Governance. Es zeigt, dass es möglich ist, fortgeschrittene Sprachmodelle mit kollektiv festgelegten Werten und Prinzipien in Einklang zu bringen, und unterstreicht das Potenzial, unterschiedliche Perspektiven in die KI-Entwicklung einzubeziehen. Das Experiment unterstreicht auch die Bedeutung der interdisziplinären Zusammenarbeit zwischen KI-Entwicklern, Sozialwissenschaftlern und der Öffentlichkeit bei der Gestaltung der ethischen Grundlagen der KI. Zukünftige Forschung kann auf diesen Erkenntnissen aufbauen, indem sie die Skalierbarkeit und Generalisierbarkeit des Constitutional AI-Ansatzes untersucht, standardisierte Rahmenbedingungen für die Übersetzung öffentlicher Eingaben in KI-Prinzipien entwickelt und die langfristigen Auswirkungen wertorientierter KI-Systeme in realen Kontexten untersucht.
Anwendung eins + Anwendung zwei