Crecen los temores respecto a los alcances de la inteligencia artificial

por Uvencio Blanco Hernández
02/06/2023 – La inteligencia artificial se ha vuelto omnipresente. Puede ser utilizada para preservar el medio ambiente y luchar contra el cambio climático, la medicina, la industria, las finanzas y la guerra. Además, cada día está teniendo un impacto revelador en el mundo del deporte. En relación con el ajedrez ha mejorado significativamente este juego. Pero, seamos prudentes.Artículo por Dr. Uvencio Blanco. | Imagen: Nadja Wittmann (ChessBase)

ChessBase 17 - Mega package - Edition 2024 ChessBase 17 - Mega package - Edition 2024

It is the program of choice for anyone who loves the game and wants to know more about it. Start your personal success story with ChessBase and enjoy the game even more.

Más...

Ecología e inteligencia artificial

Durante los últimos 30 años la IA ha tenido un crecimiento exponencial. Podemos observar grandes avances en áreas como la medicina, las finanzas, las comunicaciones, la educación, el deporte (particularmente el ajedrez y los e-Sports), el transporte, etc.

Esta relación con sectores como las industrias, las comunicaciones y la medicina ha desatado una comprensible ola de optimismo a nivel global, aunque sin dejar de advertir los riesgos potenciales que le acompañan. La experiencia indica que el avance tecnológico no es un proceso inofensivo, porque siempre viene acompañado de aspectos relacionados con su impacto sobre la sociedad, en ocasiones con implicaciones éticas.

Pero más allá de su relación con las diferentes industrias, es importante reconocer que existe una conexión muy cercana entre ecología e inteligencia artificial. La inteligencia artificial puede ser utilizada para preservar el medio ambiente y luchar contra el cambio climático. Por ejemplo, la inteligencia artificial puede ser utilizada para:

  • Planificar mejor los objetivos de desarrollo sostenible
  • Reducir la huella de carbono del acero
  • Escanear e identificar especies de forma individualizada
  • Predecir errores en el diseño de procesos de reforestación
  • Disminuir el consumo energético de los edificios
  • Luchar contra el desperdicio de alimentos
  • Prevenir incendios forestales y para optimizar la cantidad de ingredientes extraídos en la producción de acero
  • Eliminar los desperdicios en el sistema alimentario

Ya hemos visto que la inteligencia artificial está teniendo un impacto significativo en el mundo del deporte. De hecho, algunas de las formas en que se está utilizando incluyen:

  • Creación de nuevos deportes basados en tecnología
  • Detección de nuevos talentos y predicción del potencial futuro de los jugadores
  • Análisis del rendimiento físico durante los entrenamientos y la identificación de puntos débiles a mejorar
  • Previsión de la probabilidad de que un jugador se lesione
  • Análisis de diferentes parámetros de salud de los jugadores

En relación con el ajedrez como deporte, la AI ha mejorado significativamente este juego. Programas de ajedrez basados en esta tecnología como AlphaZero, MuZero Leela y otros, han manifestado gran capacidad para aprender a jugar al ajedrez desde sus reglas y principios básicos, logrando alcanzar resultados sorprendentes -contra humanos y otras máquinas- en las diferentes modalidades del juego.

Adicionalmente se ha podido verificar que la AI ha mostrado habilidad para guiar a los jugadores para explorar nuevas estrategias, tácticas y variantes en el ajedrez. Y desde el área de la investigación, algunos algoritmos de inteligencia artificial han sido capaces de resolver algunos de los principios básicos del ajedrez y varias estrategias clave, solo a partir de lecturas sobre el juego.

Algunos riesgos y amenazas de la IA

Según lo expuesto en un artículo de El Mundo, la inteligencia artificial (IA) puede presentar varios riesgos, incluyendo accidentes, malos usos como la carrera armamentista. Además, la IA puede tener un impacto en el empleo, transformar las relaciones humanas y tener matices éticos, según un artículo de Centro México Digital. Otros riesgos incluyen la manipulación, seguridad y vulnerabilidad, la autonomía y la transformación de las relaciones humanas.

Un artículo de IADB Blogs menciona que

El uso de sistemas de IA en los procesos de toma de decisiones conlleva ciertos riesgos debido a los potenciales impactos directos o indirectos de la implementación de estas tecnologías. Algunos de estos riesgos incluyen la discriminación, la falta de transparencia y la privacidad.

Además, según un artículo de Newsweek en español “hay un aumento de accidentes, cuasi accidentes e incidentes críticos causados por los sistemas de inteligencia artificial (IA).

Así mismo, un artículo de Yahoo Noticias menciona que

La base de datos de incidentes de IA rastrea errores, cuasi accidentes e incidentes críticos causados por los sistemas de IA y abarca algunos eventos impactantes, como accidentes automovilísticos sin conductor y sistemas de chat que crean contenido racista.

La IA ya es omnipresente

Debido a que la inteligencia artificial es omnipresente -ya que alcanza todos los estratos de la vida humana- ambientes como el militar, la economía, la medicina, las comunicaciones y la libertad de expresión y el mundo del deporte están siendo afectados por aplicaciones cada vez más complejas y, en algunos casos, indetectables.

Así, en declaraciones dadas a ABC News, Sam Altman alto ejecutivo de la firma Open AI y diseñador del ChatGPT, expresó tener temor de que su creación sea utilizada con fines de "ciberataques o campañas de desinformación". Agregó que para atender este asunto su empresa “necesita tiempo para adaptarse".

En relación con los temores, recelos y desconfianza que despiertan algunas aplicaciones de la IA, los mismos están relacionados -precisamente- con ¿quién la controla o regula? Acaso los ¿laboratorios, consorcios privados, grandes lobbies o los gobiernos? Asunto extremadamente delicado.

En una entrevista concedida al The New York Times en 2021, el escritor de ciencia ficción Ted Chiang afirmó:

Al respecto, permítanme añadir algo: también es muy preocupante que el Estado controle la tecnología. Pensar en los fines para los que cada gobierno podría utilizar la inteligencia artificial -y, en muchos casos, ya la utiliza es inquietante.

Recordemos que en 2015 el director del Instituto de Inteligencia Artificial de Barcelona y Premio Nacional de Informática 2012, Ramon López de Mántaras informó a La Vanguardia que:

Es muy preocupante el desarrollo de la robótica inteligente con la finalidad de disponer de robots soldados, ya que para un robot es casi imposible distinguir entre un civil inocente y un combatiente.

Efectivamente, uno de los temores expresados con mayor frecuencia, es el relacionado con la formación de soldados robots para uso militar. Tema que ha sido tratado en múltiples películas y literatura de ciencia ficción. Inclusive, más allá de estos espacios, a mediados de abril de 2023, se viralizó un video según el cual cuatro robots soldados habían asesinado a 29 científicos de un laboratorio japonés. Aunque el mismo no mostraba ningún respaldo institucional, causó sensación entre los usuarios. Posteriormente expertos de Japón y Corea del Sur expresaron su rechazo a esta información luego de no encontrar evidencia confiable sobre este hecho.

Un stop necesario

Carta abierta

Pausa a los experimentos gigantes de IA

Hacemos un llamamiento a todos los laboratorios de IA para que pongan inmediatamente en pausa durante al menos 6 meses el entrenamiento de sistemas de IA más potentes que el GPT-4.

22 de marzo de 2023

Los sistemas de IA con una inteligencia competitiva con la humana pueden plantear profundos riesgos para la sociedad y la humanidad, tal y como demuestran numerosas investigaciones [1] y reconocen los principales laboratorios de IA [2]. Tal y como se afirma en los Principios de IA de Asilomar, ampliamente respaldados, la IA avanzada podría representar un cambio profundo en la historia de la vida en la Tierra, y debería planificarse y gestionarse con el cuidado y los recursos adecuados. Por desgracia, este nivel de planificación y gestión no se está produciendo, a pesar de que en los últimos meses los laboratorios de IA se han visto inmersos en una carrera fuera de control para desarrollar y desplegar mentes digitales cada vez más poderosas que nadie -ni siquiera sus creadores- puede entender, predecir o controlar de forma fiable.

Los sistemas contemporáneos de IA están llegando a competir con los humanos en tareas generales [3], y debemos preguntarnos: ¿Debemos dejar que las máquinas inunden nuestros canales de información con propaganda y falsedades? ¿Debemos automatizar todos los trabajos, incluidos los satisfactorios? ¿Debemos desarrollar mentes no humanas que con el tiempo nos superen en número, inteligencia, obsolescencia y reemplazo? ¿Debemos arriesgarnos a perder el control de nuestra civilización? Estas decisiones no deben delegarse en líderes tecnológicos no elegidos. Los sistemas de IA potentes sólo deben desarrollarse cuando estemos seguros de que sus efectos serán positivos y sus riesgos controlables. Esta confianza debe estar bien justificada y aumentar con la magnitud de los efectos potenciales de un sistema. La reciente declaración de OpenAI en relación con la inteligencia artificial general, afirma que "En algún momento, puede ser importante obtener una revisión independiente antes de empezar a entrenar futuros sistemas, y que los esfuerzos más avanzados acuerden limitar la tasa de crecimiento de la computación utilizada para crear nuevos modelos." Estamos de acuerdo. Ese punto es ahora.

Por lo tanto, pedimos a todos los laboratorios de IA que pausen inmediatamente durante al menos 6 meses el entrenamiento de sistemas de IA más potentes que el GPT-4. Esta pausa debe ser pública y verificable, e incluir a todos los actores clave. Si esta pausa no puede realizarse rápidamente, los gobiernos deberían intervenir e instituir una moratoria.

Los laboratorios de IA y los expertos independientes deberían aprovechar esta pausa para desarrollar y aplicar simultáneamente un conjunto de protocolos de seguridad compartidos para el diseño y desarrollo de IA avanzada que sean rigurosamente auditados y supervisados por expertos externos independientes. Estos protocolos deberían garantizar que los sistemas que se adhieran a ellos sean seguros más allá de toda duda razonable [4]. Esto no significa una pausa en el desarrollo de la IA en general, simplemente un paso atrás en la peligrosa carrera hacia modelos de caja negra impredecibles y cada vez más grandes con capacidades emergentes.

La investigación y el desarrollo de la IA deben centrarse en conseguir que los potentes sistemas de última generación sean más precisos, seguros, interpretables, transparentes, robustos, alineados, fiables y leales.

Paralelamente, los desarrolladores de IA deben trabajar con los responsables políticos para acelerar drásticamente el desarrollo de sistemas sólidos de gobernanza de la IA. Estos deberían incluir, como mínimo: autoridades reguladoras nuevas y capaces dedicadas a la IA; supervisión y seguimiento de sistemas de IA altamente capaces y grandes reservas de capacidad computacional; sistemas de procedencia y marca de agua que ayuden a distinguir lo real de lo sintético y a rastrear las fugas de modelos; un ecosistema sólido de auditoría y certificación; responsabilidad por los daños causados por la IA; financiación pública sólida para la investigación técnica sobre seguridad de la IA; e instituciones bien dotadas de recursos para hacer frente a las drásticas perturbaciones económicas y políticas (especialmente para la democracia) que causará la IA.

La humanidad puede disfrutar de un futuro próspero con la IA. Tras haber logrado crear potentes sistemas de IA, ahora podemos disfrutar de un "verano de la IA" en el que cosechemos los frutos, diseñemos estos sistemas para el claro beneficio de todos y demos a la sociedad la oportunidad de adaptarse. La sociedad ha puesto pausa a otras tecnologías con efectos potencialmente catastróficos para la sociedad [5]. Podemos hacerlo aquí. Disfrutemos de un largo verano de IA, no nos precipitemos sin estar preparados a un otoño.

Conclusiones

  • No es ciencia ficción: aquellos problemas menores -no resueltos- nos han traído estos más grandes. Y nos sentimos desbordados. De allí que, ante las extraordinarias oportunidades de crecimiento que nos ofrecen las innumerables aplicaciones de la Inteligencia Artificial, debemos ser prudentes y no facilitar o permitir su acceso al control de aquellos procedimientos y operaciones para las cuales fueron creadas.
  • La inteligencia artificial -en sus diferentes manifestaciones- puede contribuir significativamente al desarrollo sostenible y a la preservación del medio ambiente.
  • Debido a que en todo momento existe un riesgo inherente a la interacción entre humanos y máquinas inteligentes; estamos obligados a buscar nuevos enfoques y estrategias para sus novedosas aplicaciones en campos como la medicina, la ecología, las comunicaciones, la sicología, la pedagogía, la lingüística y el mismo ajedrez, entre otras disciplinas.
  • Aunque no aguardamos por buenas nuevas en este campo, es crucial e impostergable que especialistas de dichas disciplinas se muestren obligados -con base en los principios generales establecidos en el Primer Acuerdo Mundial sobre la Ética de la Inteligencia Artificial de la ONU- a desarrollar una nueva legislación y una nueva ética, sobre el tema de los programas informáticos, los sistemas inteligentes no biológicos y sus interacciones con humanos, que garanticen la integridad y la seguridad plena de la persona humana.

Fuentes y enlaces


Uvencio Blanco Hernández, Venezuela. Comisión Ajedrez y Educación FIDE. Escritor, Investigador, Conferencista, Árbitro Internacional, Organizador Internacional, Entrenador, Profesor de Ajedrez ECU y Lead School Instructor FIDE.