¿Podrá el Acuerdo Mundial sobre la Ética de la Inteligencia Artificial regular el caos reinante en este campo?

por Uvencio Blanco Hernández
28/04/2023 – Los grandes jugadores se están volviendo cada vez más reservados sobre lo que están haciendo, lo que dificulta que la sociedad se defienda contra cualquier daño que pueda materializarse. Artículo por Dr. Uvencio Blanco... | Dibujo: Jörg Hilbert (Fritz & Fertig, ChessBase)

ChessBase 17 - Mega package - Edition 2024 ChessBase 17 - Mega package - Edition 2024

It is the program of choice for anyone who loves the game and wants to know more about it. Start your personal success story with ChessBase and enjoy the game even more.

Más...

Expertos y altos ejecutivos piden una pausa en desarrollos de IA

Para finales de marzo pasado, un grupo cercano a los 1000 expertos solicitaron posponer el desarrollo de pruebas de inteligencia artificial (IA) citando “riesgos para la sociedad”. Reconocidas personalidades de talla mundial como Elon Musk, Steve Wozniak, Emad Mostaque, Yuval Noah Hariri, Yoshua Bengio y Stuart Russell suscribieron una carta en la que advierten “la necesidad de una pausa de seis meses en la IA porque su desarrollo descontrolado es un riesgo para la sociedad y la humanidad”.

En palabras del profesor Gary Marcus, de la Universidad de Nueva York:

La carta no es perfecta, pero el espíritu es correcto: tenemos que reducir la velocidad hasta que entendamos mejor las ramificaciones… Los grandes jugadores se están volviendo cada vez más reservados sobre lo que están haciendo, lo que dificulta que la sociedad se defienda contra cualquier daño que pueda materializarse.

Estas personalidades acusan a desarrolladores de programas de inteligencia artificial, entre los que se encuentran grandes inversionistas como Bill Gates, quienes han entrado en carrera desbocada en la que la desinformación y la carencia de control sobre las mentes artificiales cada vez más poderosas e independientes.

Los solicitantes de la moratoria hablan de la inconveniencia de desarrollar sistemas inteligentes más potentes que el recién lanzado GPT-4 de OpenAI.

Trascendió que, respaldada por Microsoft, presentó la cuarta versión de su programa de IA GPT (Generative Pre-trained Transformer o Transformador Generativo Pre-entrenado), que ha cautivado a los usuarios de todo el mundo, desarrollando conversaciones similares a las humanas, componiendo canciones y resumiendo documentos extensos. De hecho, estos programas, impulsados por IA son cada vez más sofisticados y sus repercusiones empiezan a sentirse en varios ámbitos de la vida cotidiana; entre ellos el trabajo y el manejo de la información.

Por ejemplo, la nueva versión del ChatGPT, el modelo de lenguaje impulsado por inteligencia artificial de la empresa OpenAI, ha mostrado capacidades asombrosas e inquietantes para escribir ensayos a nivel universitario y hasta contar chistes, algunas personas que se dedican a hacer contenido escrito ya comenzaron a plantearse en serio si su trabajo corre el riesgo de desaparecer (El Times).

En este sentido, hay algo que parece claro: “La inteligencia artificial afectará el trabajo de maneras diferentes que las oleadas anteriores de tecnología”.

En opinión de The Future of Life Institute, una organización privada sin fines de lucro, respaldada por la Fundación Elon Musk, "Los sistemas de IA potentes sólo deberían desarrollarse cuando estemos seguros de que sus efectos serán positivos y sus riesgos controlables".

El documento centra su petitorio en:

Una moratoria hasta que se establezcan sistemas de seguridad con nuevas autoridades reguladoras, vigilancia de los sistemas de IA, técnicas que ayuden a distinguir entre lo real y lo artificial, e instituciones capaces de hacer frente a la dramática perturbación económica y política, especialmente para la democracia, que causará la IA. En los últimos meses hemos visto cómo los laboratorios de IA se han lanzado a una carrera descontrolada para desarrollar y desplegar cerebros digitales cada vez más potentes que nadie, ni siquiera sus creadores, pueden entender, predecir o controlar de manera fiable.

El petitorio de los expertos

Carta abierta
Pausa a los experimentos gigantes de IA

Hacemos un llamamiento a todos los laboratorios de IA para que pongan inmediatamente en pausa durante al menos 6 meses el entrenamiento de sistemas de IA más potentes que el GPT-4.

22 de marzo de 2023

Los sistemas de IA con una inteligencia competitiva con la humana pueden plantear profundos riesgos para la sociedad y la humanidad, tal y como demuestran numerosas investigaciones [1] y reconocen los principales laboratorios de IA [2]. Tal y como se afirma en los Principios de IA de Asilomar, ampliamente respaldados, la IA avanzada podría representar un cambio profundo en la historia de la vida en la Tierra, y debería planificarse y gestionarse con el cuidado y los recursos adecuados. Por desgracia, este nivel de planificación y gestión no se está produciendo, a pesar de que en los últimos meses los laboratorios de IA se han visto inmersos en una carrera fuera de control para desarrollar y desplegar mentes digitales cada vez más poderosas que nadie -ni siquiera sus creadores- puede entender, predecir o controlar de forma fiable.

Los sistemas contemporáneos de IA están llegando a competir con los humanos en tareas generales [3], y debemos preguntarnos: ¿Debemos dejar que las máquinas inunden nuestros canales de información con propaganda y falsedades? ¿Debemos automatizar todos los trabajos, incluidos los satisfactorios? ¿Debemos desarrollar mentes no humanas que con el tiempo nos superen en número, inteligencia, obsolescencia y reemplazo? ¿Debemos arriesgarnos a perder el control de nuestra civilización? Estas decisiones no deben delegarse en líderes tecnológicos no elegidos. Los sistemas de IA potentes sólo deben desarrollarse cuando estemos seguros de que sus efectos serán positivos y sus riesgos controlables. Esta confianza debe estar bien justificada y aumentar con la magnitud de los efectos potenciales de un sistema. La reciente declaración de OpenAI en relación con la inteligencia artificial general, afirma que "En algún momento, puede ser importante obtener una revisión independiente antes de empezar a entrenar futuros sistemas, y que los esfuerzos más avanzados acuerden limitar la tasa de crecimiento de la computación utilizada para crear nuevos modelos." Estamos de acuerdo. Ese punto es ahora.

Por lo tanto, pedimos a todos los laboratorios de IA que pausen inmediatamente durante al menos 6 meses el entrenamiento de sistemas de IA más potentes que el GPT-4. Esta pausa debe ser pública y verificable, e incluir a todos los actores clave. Si esta pausa no puede realizarse rápidamente, los gobiernos deberían intervenir e instituir una moratoria.

Los laboratorios de IA y los expertos independientes deberían aprovechar esta pausa para desarrollar y aplicar simultáneamente un conjunto de protocolos de seguridad compartidos para el diseño y desarrollo de IA avanzada que sean rigurosamente auditados y supervisados por expertos externos independientes. Estos protocolos deberían garantizar que los sistemas que se adhieran a ellos sean seguros más allá de toda duda razonable [4]. Esto no significa una pausa en el desarrollo de la IA en general, simplemente un paso atrás en la peligrosa carrera hacia modelos de caja negra impredecibles y cada vez más grandes con capacidades emergentes.

La investigación y el desarrollo de la IA deben centrarse en conseguir que los potentes sistemas de última generación sean más precisos, seguros, interpretables, transparentes, robustos, alineados, fiables y leales.

Paralelamente, los desarrolladores de IA deben trabajar con los responsables políticos para acelerar drásticamente el desarrollo de sistemas sólidos de gobernanza de la IA. Estos deberían incluir, como mínimo: autoridades reguladoras nuevas y capaces dedicadas a la IA; supervisión y seguimiento de sistemas de IA altamente capaces y grandes reservas de capacidad computacional; sistemas de procedencia y marca de agua que ayuden a distinguir lo real de lo sintético y a rastrear las fugas de modelos; un ecosistema sólido de auditoría y certificación; responsabilidad por los daños causados por la IA; financiación pública sólida para la investigación técnica sobre seguridad de la IA; e instituciones bien dotadas de recursos para hacer frente a las drásticas perturbaciones económicas y políticas (especialmente para la democracia) que causará la IA.

La humanidad puede disfrutar de un futuro próspero con la IA. Tras haber logrado crear potentes sistemas de IA, ahora podemos disfrutar de un "verano de la IA" en el que cosechemos los frutos, diseñemos estos sistemas para el claro beneficio de todos y demos a la sociedad la oportunidad de adaptarse. La sociedad ha puesto pausa a otras tecnologías con efectos potencialmente catastróficos para la sociedad [5]. Podemos hacerlo aquí. Disfrutemos de un largo verano de IA, no nos precipitemos sin estar preparados a un otoño.

Inteligencia Artificial: La UNESCO pide a los gobiernos que apliquen sin demora el Marco Ético Mundial

Audrey Azoulay, directora general de la UNESCO, ofreció a principios de abril un comunicado de prensa en el cual el ente multilateral fija posición sobre la solicitud hecha por expertos, de una moratoria en desarrollos de IA. La nota especifica lo siguiente:

Tras los llamamientos realizados esta semana por más de 1.000 profesionales de la tecnología para que se haga una pausa en el desarrollo de los sistemas de inteligencia artificial, incluido el chat GPT, la UNESCO pide a los países que apliquen sin demora su Recomendación sobre la Ética de la Inteligencia Artificial. Este marco normativo mundial, adoptado por unanimidad por los 193 Estados miembros de la Organización, proporciona las garantías necesarias.

El mundo necesita normas éticas más estrictas para la inteligencia artificial: este es el gran reto de nuestro tiempo. La Recomendación de la UNESCO sobre la Ética de la IA establece el marco normativo apropiado. Todos nuestros Estados miembros aprobaron esta Recomendación en noviembre de 2021. Es hora de aplicar las estrategias y normativas a nivel nacional. Tenemos que predicar con el ejemplo y asegurarnos de que cumplimos los objetivos de la misma.

La Recomendación de la UNESCO sobre la Ética de la Inteligencia Artificial es el primer marco mundial para el uso ético de la inteligencia artificial. Orienta a los países sobre cómo maximizar los beneficios de la IA y reducir los riesgos que esta conlleva. Para ello, contiene valores y principios, pero también recomendaciones políticas detalladas en todos los ámbitos pertinentes.

La UNESCO está especialmente preocupada por las cuestiones éticas que plantean estas innovaciones en los ámbitos de la lucha contra la discriminación y los estereotipos, incluidas las cuestiones de género, la fiabilidad de la información, la privacidad y la protección de datos, los derechos humanos y el medio ambiente.

Es evidente que la autorregulación de la industria no es suficiente para evitar estos daños éticos, por lo que la Recomendación proporciona las herramientas para garantizar que los desarrollos de la IA se atengan al estado de derecho, evitando daños y asegurando que, cuando se produzcan, los afectados dispongan de mecanismos de rendición de cuentas y reparación.

La Recomendación de la UNESCO viene asimismo acompañada de una herramienta de evaluación que permite a cada Estado miembro valorar si está preparado para aplicarla. Esta herramienta permite a los países conocer las competencias y aptitudes que necesitan los profesionales del sector para establecer una regulación sólida de la inteligencia artificial. También exige a los países que informen regularmente sobre sus progresos y prácticas en el ámbito de la inteligencia artificial, en particular, en forma de informe periódico cada cuatro años.

Hasta la fecha, más de 40 países de todas las regiones del mundo ya están colaborando con la UNESCO para desarrollar controles y equilibrios de la IA a nivel nacional, basándose en la Recomendación. La UNESCO hace un llamamiento a todos los países para que se unan al movimiento que está liderando para construir una IA ética. En el Foro Mundial de la UNESCO sobre la Ética de la Inteligencia Artificial, que se celebrará en Eslovenia en diciembre de 2023, se presentará un informe sobre los progresos realizados

Conclusiones

Desconocemos las razones que realmente animaron a gigantes de la industria IA de la talla de Elon Musk, Steve Wozniak, Emad Mostaque, Yuval Noah Hariri y otros, a solicitar una moratoria de grandes proyectos de desarrollo de IA: ¿competencia desleal?, ¿guerra entre laboratorios y consorcios? ¿pérdida de mercados? o, los ya conocidos ¿intereses económicos? Consideremos que dichas motivaciones son altruistas; generosas con el futuro de la humanidad y el planeta. Pero ¿qué vendría después de dicha moratoria de apenas seis meses?
La Recomendación ONU proporciona las herramientas para garantizar que los desarrollos de la IA se atengan al estado de derecho, evitando daños y asegurando que, cuando se produzcan, los afectados dispongan de mecanismos de rendición de cuentas y reparación.

Aunque no aguardamos por buenas nuevas en este campo, es crucial e impostergable que especialistas de dichas disciplinas se muestren obligados -con base en los principios generales establecidos en el Primer Acuerdo Mundial sobre la Ética de la Inteligencia Artificial de la ONU- a desarrollar una nueva legislación y una nueva ética, sobre el tema de los programas informáticos, los sistemas inteligentes no biológicos y sus interacciones con humanos, que garanticen la libertad, integridad y la seguridad plena de la persona humana.

El avance de proyectos de IA abre un camino fascinante de extraordinarias proporciones para nuestra sociedad, pero a su vez, plantea dudas filosóficas considerables que deben ser atendidas de inmediato. En consecuencia, aspiramos a que el Marco Ético Mundial de Inteligencia Artificial y otros instrumentos creados al efecto, no se conviertan en una nueva oportunidad perdida para la humanidad.

Enlaces y fuentes

  • Todos los artículos por Dr. Uvencio Blanco 
  • Future of Life. Pause Giant AI Experiments: An Open Letter. 22/04/2023.
    Naciones Unidas. Noticias ONU. Primer acuerdo mundial sobre la ética de la inteligencia artificial. 25/11/2021.

  • Reuters. Elon Musk and others urge AI pause, citing 'risks to society' by Jyoti Narayan, Krystal Hu, Martin Coulter and Supantha Mukherjee. April 5,2023.

  • The New York Times. Opinión: El verdadero peligro inminente de la inteligencia artificial, 27/02/2023.

  • The New York Times (The Times). Hola, no somos un chatbot by Por Sabrina Duque y Patricia Nieto.18/04/2023.

  • UNESCO. Inteligencia Artificial: La UNESCO pide a los gobiernos que apliquen sin demora el Marco Ético Mundial por Audrey Azoulay, 30/03/2023.


Uvencio Blanco Hernández, Venezuela. Comisión Ajedrez y Educación FIDE. Escritor, Investigador, Conferencista, Árbitro Internacional, Organizador Internacional, Entrenador, Profesor de Ajedrez ECU y Lead School Instructor FIDE.