General
Radzivon Aljovik
Entusiasta de la automatización de bajo código
9 de julio de 2024
En un experimento innovador, Anthropic, una empresa líder Empresa de investigación en inteligencia artificial, ha colaborado con el Proyecto de Inteligencia Colectiva para elaborar una constitución para un Sistema de IA Utilizando información de una muestra diversa del público estadounidense, este novedoso enfoque, denominado "IA constitucional", tiene como objetivo crear sistemas de IA transparentes y responsables mediante la incorporación de principios legales y éticos directamente en el proceso de entrenamiento de la IA.
Este artículo profundiza en los detalles de esta investigación innovadora, explorando la metodología, los hallazgos y las implicaciones de largo alcance para el futuro de la gobernanza de la IA en una era en la que los modelos de lenguaje avanzados se están integrando cada vez más en sectores críticos como la gobernanza, el poder judicial y la formulación de políticas.
Puntos clave: El experimento colaborativo entre Anthropic y el Proyecto de Inteligencia Colectiva ha dado como resultado una "constitución pública" para un sistema de IA, redactada por una muestra representativa de unos 1,000 estadounidenses. La constitución pública de IA hace hincapié en la objetividad, la imparcialidad y la accesibilidad, y los modelos entrenados en ella demuestran un rendimiento comparable al de los entrenados en la constitución de Anthropic, al tiempo que muestran un sesgo reducido. El experimento destaca los desafíos y las consideraciones que supone incorporar la contribución democrática al desarrollo de la IA, pero representa un paso significativo hacia la alineación de los modelos de lenguaje avanzados con los valores humanos.
La IA constitucional es una metodología innovadora desarrollada por Anthropic para garantizar que los sistemas de IA funcionen en consonancia con principios normativos explícitos, de forma similar a cómo una constitución rige el comportamiento de una nación. En el corazón de la IA constitucional de Anthropic se encuentra la definición de un conjunto de valores y principios de alto nivel que sirven como marco rector de la IA. Estos principios se elaboran cuidadosamente para garantizar que las acciones de la IA se alineen con las normas y expectativas sociales, promoviendo comportamientos beneficiosos y minimizando el potencial de resultados perjudiciales.
Para inculcar eficazmente estos principios en la IA, la IA Constitucional emplea técnicas avanzadas como:
Otro aspecto fundamental de la IA constitucional es la meticulosa selección de los datos de entrenamiento y la arquitectura de la IA. Al seleccionar y preprocesar cuidadosamente los datos utilizados para entrenar la IA, los investigadores pueden garantizar que el sistema esté expuesto a un conjunto equilibrado y representativo de ejemplos que refuercen los comportamientos y valores deseados. Además, la propia arquitectura de la IA está diseñada para promover la alineación con los principios constitucionales, incorporando mecanismos que alientan resultados útiles, inofensivos y honestos.
Al incorporar estos principios directamente en el proceso de toma de decisiones de la IA, la IA constitucional pretende crear sistemas que se esfuercen de manera proactiva por operar dentro de límites éticos y legales predefinidos. Esto significa que la IA buscará activamente:
El objetivo es desarrollar Sistemas de IA que no sólo sean altamente capaces sino que también estén inherentemente alineados con los valores humanos y las expectativas sociales.
El desarrollo de la IA constitucional representa un avance significativo en el campo de la gobernanza y la ética de la IA. Al establecer un conjunto claro de principios normativos e integrarlos en la funcionalidad básica de la IA, los investigadores pueden crear sistemas que sean más transparentes, responsables y confiables. Este enfoque tiene el potencial de mitigar muchos de los riesgos y desafíos asociados con la implementación de la IA en dominios críticos como la gobernanza, el poder judicial y la formulación de políticas, asegurando que estos sistemas operen al servicio del bien común.
El desarrollo de la IA constitucional está impulsado por varias motivaciones convincentes que abordan los desafíos críticos que plantea la creciente integración de los sistemas de IA en varios aspectos de la sociedad:
En resumen, la IA constitucional está motivada por la necesidad apremiante de garantizar que los sistemas de IA funcionen de manera ética, legalmente compatible y confiable. A medida que estas tecnologías se integran cada vez más en dominios críticos y procesos de toma de decisiones, la IA constitucional proporciona una herramienta poderosa para crear sistemas de IA que sean transparentes, responsables y estén inherentemente alineados con los principios que sustentan nuestra sociedad. Al priorizar el desarrollo y la implementación de la IA constitucional, podemos liberar el inmenso potencial de estas tecnologías y, al mismo tiempo, mitigar los riesgos y desafíos que plantean.
Integración perfecta de Latenode Con Constitutional AI de Anthropic, los usuarios cuentan con una herramienta eficiente para aprovechar los sistemas de IA alineados con los valores públicos sin la complejidad de gestionar la infraestructura de entrenamiento del modelo. El editor visual intuitivo de la plataforma simplifica el proceso de integración de Constitutional AI con otros sistemas a través de API, lo que permite a las organizaciones incorporar sin esfuerzo principios éticos de IA en sus procesos de automatización. Al utilizar Latenode, los usuarios pueden acceder cómodamente a las funciones de Constitutional AI, incluidas sus capacidades de mitigación de sesgos, toma de decisiones éticas y cumplimiento legal. La integración también permite a los usuarios cambiar sin problemas entre diferentes configuraciones de Constitutional AI de Anthropic, según sus necesidades y presupuesto específicos. Por ejemplo, crear un script para un chatbot de servicio al cliente que proporcione respuestas imparciales y éticas es sencillo.
Así es como se ve el script:
Y aquí está el resultado de este escenario, donde un chatbot ya creado usando Latenode proporciona una respuesta imparcial a una consulta del cliente:
Puede obtener más información sobre este script y la integración con Latenode en este artículo. La integración con Latenode ofrece algunos beneficios clave:
Si necesitas ayuda o asesoramiento sobre cómo crear tu propio script o si quieres replicar éste, contacta con Nuestra comunidad de Discord, donde se encuentran los expertos en automatización low-code.
Para explorar el potencial de democratizar el desarrollo de la IA constitucional antrópica, Anthropic se asoció con la Inteligencia Colectiva Proyecto para llevar a cabo un proceso de participación pública utilizando la plataforma Polis. El objetivo era involucrar a una muestra representativa de aproximadamente 1,000 adultos estadounidenses en la redacción de una constitución para un sistema de IA. Se invitó a los participantes a proponer y votar principios normativos, contribuyendo a la generación colectiva de un conjunto de pautas para el comportamiento de la IA.
El diseño del proceso de participación pública implicó varias decisiones críticas:
El proceso de participación pública dio como resultado un rico entramado de principios generados por los participantes, que se sintetizaron en una "constitución pública" coherente. Si bien hubo una superposición moderada de aproximadamente el 50% con la constitución interna de Anthropic en términos de conceptos y valores centrales, la constitución pública exhibió varias distinciones notables:
Estas diferencias subrayan el valor de incorporar diversas perspectivas públicas a la hora de dar forma a las bases éticas de los sistemas de IA.
Para evaluar el impacto de la constitución de fuentes públicas, Anthropic entrenó dos variantes de su modelo de IA, Claude - uno que utiliza la constitución pública (modelo público) y otro que utiliza su constitución interna original (modelo estándar). Estos modelos, junto con un modelo de control, fueron sometidos a una evaluación rigurosa en múltiples dimensiones:
Estas evaluaciones proporcionan información valiosa sobre la eficacia de la IA constitucional para alinear los modelos lingüísticos con los valores y principios determinados públicamente.
El proceso de entrenamiento de un modelo de IA basado en aportes públicos cualitativos presentó un conjunto único de desafíos y requirió una consideración cuidadosa en cada etapa:
Estas lecciones subrayan la naturaleza multifacética de alinear la IA con los valores públicos y la importancia de abordar cuidadosamente las consideraciones sociales, técnicas y éticas involucradas.
El experimento de IA constitucional llevado a cabo por Anthropic y el Proyecto de Inteligencia Colectiva tiene profundas implicaciones para el futuro del desarrollo y la gobernanza de la IA:
De cara al futuro, los investigadores pretenden aprovechar este trabajo fundacional perfeccionando sus metodologías, diseñando evaluaciones más específicas y explorando la escalabilidad y generalización del enfoque de IA constitucional. Algunas posibles direcciones futuras incluyen:
A medida que el campo de la IA continúa evolucionando a un ritmo sin precedentes, los conocimientos adquiridos en este experimento sin duda darán forma a la trayectoria de los futuros esfuerzos de investigación y desarrollo.
El experimento de la IA constitucional colectiva de Anthropic y el Proyecto de Inteligencia Colectiva es un hito fundamental en la democratización del desarrollo de la IA. Al involucrar al público en la creación de una constitución de la IA, esta investigación sienta las bases para un enfoque más inclusivo, transparente y responsable de la gobernanza de la IA. Los hallazgos resaltan el valor de las perspectivas diversas y los desafíos que implica alinear los modelos lingüísticos avanzados con los valores sociales.
La IA constitucional surge como un marco prometedor para garantizar que las tecnologías de IA potentes sirvan al bien común. Al colocar los valores humanos en el centro del desarrollo de la IA, podemos aprovechar el potencial de estos sistemas y, al mismo tiempo, mitigar los riesgos y las consecuencias no deseadas.
Sin embargo, el camino hacia una IA verdaderamente democrática y alineada con los valores está lejos de terminar. El experimento sirve como un llamado a la colaboración, la investigación y la participación pública continuas para dar forma al futuro de la IA. A través de la sabiduría colectiva y la participación de diversas partes interesadas, podemos trazar un rumbo hacia un futuro habilitado por la IA que defienda la transparencia, la rendición de cuentas y la alineación con los valores humanos.
Los conocimientos adquiridos a partir de este experimento innovador servirán de base para futuras iniciativas en este campo. Si nos basamos en las bases establecidas por Anthropic y el Proyecto de Inteligencia Colectiva, podremos avanzar hacia un futuro en el que los sistemas de IA sean tecnológicamente avanzados, tengan una base ética y sean socialmente responsables. El camino que tenemos por delante puede ser complicado, pero las posibles recompensas (un mundo en el que la IA y la humanidad trabajen en armonía) bien valen el esfuerzo.
La IA constitucional se distingue por centrarse en incorporar valores y principios de alto nivel directamente en el proceso de entrenamiento del sistema de IA. En lugar de depender únicamente de restricciones o supervisión externas, la IA constitucional tiene como objetivo crear sistemas de IA que se alineen inherentemente con las normas y expectativas sociales.
Los investigadores colaboraron con la empresa de encuestas PureSpectrum para reclutar una muestra representativa de aproximadamente 1,000 adultos estadounidenses. El proceso de selección tuvo en cuenta factores demográficos como la edad, el género, los ingresos y la geografía para garantizar un grupo de participantes diverso e inclusivo. Además, se emplearon criterios de selección para medir la familiaridad de los participantes con los conceptos de IA.
La plataforma Polis fue seleccionada debido a su probada trayectoria en la facilitación de deliberaciones y la construcción de consensos en línea. Sus funciones colaborativas, que permiten a los participantes interactuar con las ideas de los demás y desarrollarlas, se adaptaron bien a los objetivos del experimento de IA constitucional. Los investigadores también tenían experiencia previa trabajando con el equipo de Polis, lo que facilitó una implementación más reflexiva y eficaz del proceso de participación pública.
Para mantener la integridad del proceso de participación del público, los investigadores establecieron criterios de moderación claros. Se eliminaron las afirmaciones que se consideraron odiosas, sin sentido, duplicadas, irrelevantes, mal formateadas o técnicamente inviables. Este proceso de moderación implicó una combinación de pautas predefinidas y juicios subjetivos por parte del equipo de investigación.
Si bien hubo una superposición moderada de alrededor del 50% entre la constitución pública y la constitución interna de Anthropic en términos de conceptos y valores centrales, la constitución pública exhibió algunas distinciones notables. Puso un mayor énfasis en la objetividad, la imparcialidad y la accesibilidad, y tendió a priorizar la promoción de conductas deseadas en lugar de desalentar las no deseadas. Además, la mayoría de los principios de la constitución pública fueron contribuciones originales de los participantes, en lugar de provenir de publicaciones o marcos existentes.
Los modelos entrenados en la constitución pública (modelos públicos) demostraron un desempeño comparable al de aquellos entrenados en la constitución de Anthropic (modelos estándar) en términos de comprensión del lenguaje y utilidad percibida. Sin embargo, los modelos públicos exhibieron un sesgo reducido en varias dimensiones sociales, según lo medido por el marco BBQ (Bias Benchmark for QA). Este hallazgo sugiere que la incorporación de aportes públicos puede mitigar potencialmente el sesgo y promover la equidad en los sistemas de IA.
El proceso de entrenamiento de un modelo de IA basado en aportes públicos cualitativos presentó varios desafíos, entre ellos, garantizar una selección representativa de los participantes, una moderación eficaz de las contribuciones y equilibrar la representación fiel de la opinión pública con las limitaciones técnicas del entrenamiento de IA constitucional. Los investigadores también tuvieron que sortear la complejidad de traducir las declaraciones públicas en principios de IA viables y seleccionar métricas de evaluación adecuadas para evaluar la alineación de los modelos resultantes con sus constituciones.
El experimento de IA constitucional realizado por Anthropic y el Proyecto de Inteligencia Colectiva tiene implicaciones significativas para el futuro de la gobernanza de la IA. Demuestra la viabilidad de alinear modelos de lenguaje avanzados con valores y principios determinados colectivamente, destacando el potencial para incorporar perspectivas diversas al desarrollo de la IA. El experimento también enfatiza la importancia de la colaboración interdisciplinaria entre desarrolladores de IA, científicos sociales y el público en la configuración de los fundamentos éticos de la IA. Las investigaciones futuras pueden aprovechar estos conocimientos explorando la escalabilidad y generalización del enfoque de IA constitucional, desarrollando marcos estandarizados para traducir los aportes públicos en principios de IA e investigando los efectos a largo plazo de los sistemas de IA alineados con valores en contextos del mundo real.
Aplicación uno + Aplicación dos