Para ganar, primero debes aprender
La nueva versión 18 de ChessBase ofrece posibilidades completamente nuevas para el entrenamiento y el análisis de partidas: análisis del estilo de juego, búsqueda de temas estratégicos, acceso a 6.000 millones de partidas de Lichess, preparación del oponente tras una exploración de sus partidas en Lichess, descarga de partidas de Chess.com con API incorporada, motor de análisis en la nube y mucho más.
Durante los últimos 30 años la IA ha tenido un crecimiento exponencial. Podemos observar grandes avances en áreas como la medicina, las finanzas, las comunicaciones, la educación, el deporte (particularmente el ajedrez y los e-Sports), el transporte, etc.
Esta relación con sectores como las industrias, las comunicaciones y la medicina ha desatado una comprensible ola de optimismo a nivel global, aunque sin dejar de advertir los riesgos potenciales que le acompañan. La experiencia indica que el avance tecnológico no es un proceso inofensivo, porque siempre viene acompañado de aspectos relacionados con su impacto sobre la sociedad, en ocasiones con implicaciones éticas.
Pero más allá de su relación con las diferentes industrias, es importante reconocer que existe una conexión muy cercana entre ecología e inteligencia artificial. La inteligencia artificial puede ser utilizada para preservar el medio ambiente y luchar contra el cambio climático. Por ejemplo, la inteligencia artificial puede ser utilizada para:
Ya hemos visto que la inteligencia artificial está teniendo un impacto significativo en el mundo del deporte. De hecho, algunas de las formas en que se está utilizando incluyen:
En relación con el ajedrez como deporte, la AI ha mejorado significativamente este juego. Programas de ajedrez basados en esta tecnología como AlphaZero, MuZero Leela y otros, han manifestado gran capacidad para aprender a jugar al ajedrez desde sus reglas y principios básicos, logrando alcanzar resultados sorprendentes -contra humanos y otras máquinas- en las diferentes modalidades del juego.
Adicionalmente se ha podido verificar que la AI ha mostrado habilidad para guiar a los jugadores para explorar nuevas estrategias, tácticas y variantes en el ajedrez. Y desde el área de la investigación, algunos algoritmos de inteligencia artificial han sido capaces de resolver algunos de los principios básicos del ajedrez y varias estrategias clave, solo a partir de lecturas sobre el juego.
Según lo expuesto en un artículo de El Mundo, la inteligencia artificial (IA) puede presentar varios riesgos, incluyendo accidentes, malos usos como la carrera armamentista. Además, la IA puede tener un impacto en el empleo, transformar las relaciones humanas y tener matices éticos, según un artículo de Centro México Digital. Otros riesgos incluyen la manipulación, seguridad y vulnerabilidad, la autonomía y la transformación de las relaciones humanas.
El uso de sistemas de IA en los procesos de toma de decisiones conlleva ciertos riesgos debido a los potenciales impactos directos o indirectos de la implementación de estas tecnologías. Algunos de estos riesgos incluyen la discriminación, la falta de transparencia y la privacidad.
Además, según un artículo de Newsweek en español “hay un aumento de accidentes, cuasi accidentes e incidentes críticos causados por los sistemas de inteligencia artificial (IA).
Así mismo, un artículo de Yahoo Noticias menciona que
La base de datos de incidentes de IA rastrea errores, cuasi accidentes e incidentes críticos causados por los sistemas de IA y abarca algunos eventos impactantes, como accidentes automovilísticos sin conductor y sistemas de chat que crean contenido racista.
Debido a que la inteligencia artificial es omnipresente -ya que alcanza todos los estratos de la vida humana- ambientes como el militar, la economía, la medicina, las comunicaciones y la libertad de expresión y el mundo del deporte están siendo afectados por aplicaciones cada vez más complejas y, en algunos casos, indetectables.
Así, en declaraciones dadas a ABC News, Sam Altman alto ejecutivo de la firma Open AI y diseñador del ChatGPT, expresó tener temor de que su creación sea utilizada con fines de "ciberataques o campañas de desinformación". Agregó que para atender este asunto su empresa “necesita tiempo para adaptarse".
En relación con los temores, recelos y desconfianza que despiertan algunas aplicaciones de la IA, los mismos están relacionados -precisamente- con ¿quién la controla o regula? Acaso los ¿laboratorios, consorcios privados, grandes lobbies o los gobiernos? Asunto extremadamente delicado.
En una entrevista concedida al The New York Times en 2021, el escritor de ciencia ficción Ted Chiang afirmó:
Al respecto, permítanme añadir algo: también es muy preocupante que el Estado controle la tecnología. Pensar en los fines para los que cada gobierno podría utilizar la inteligencia artificial -y, en muchos casos, ya la utiliza es inquietante.
Recordemos que en 2015 el director del Instituto de Inteligencia Artificial de Barcelona y Premio Nacional de Informática 2012, Ramon López de Mántaras informó a La Vanguardia que:
Es muy preocupante el desarrollo de la robótica inteligente con la finalidad de disponer de robots soldados, ya que para un robot es casi imposible distinguir entre un civil inocente y un combatiente.
Efectivamente, uno de los temores expresados con mayor frecuencia, es el relacionado con la formación de soldados robots para uso militar. Tema que ha sido tratado en múltiples películas y literatura de ciencia ficción. Inclusive, más allá de estos espacios, a mediados de abril de 2023, se viralizó un video según el cual cuatro robots soldados habían asesinado a 29 científicos de un laboratorio japonés. Aunque el mismo no mostraba ningún respaldo institucional, causó sensación entre los usuarios. Posteriormente expertos de Japón y Corea del Sur expresaron su rechazo a esta información luego de no encontrar evidencia confiable sobre este hecho.
Hacemos un llamamiento a todos los laboratorios de IA para que pongan inmediatamente en pausa durante al menos 6 meses el entrenamiento de sistemas de IA más potentes que el GPT-4.
22 de marzo de 2023
Los sistemas de IA con una inteligencia competitiva con la humana pueden plantear profundos riesgos para la sociedad y la humanidad, tal y como demuestran numerosas investigaciones [1] y reconocen los principales laboratorios de IA [2]. Tal y como se afirma en los Principios de IA de Asilomar, ampliamente respaldados, la IA avanzada podría representar un cambio profundo en la historia de la vida en la Tierra, y debería planificarse y gestionarse con el cuidado y los recursos adecuados. Por desgracia, este nivel de planificación y gestión no se está produciendo, a pesar de que en los últimos meses los laboratorios de IA se han visto inmersos en una carrera fuera de control para desarrollar y desplegar mentes digitales cada vez más poderosas que nadie -ni siquiera sus creadores- puede entender, predecir o controlar de forma fiable.
Los sistemas contemporáneos de IA están llegando a competir con los humanos en tareas generales [3], y debemos preguntarnos: ¿Debemos dejar que las máquinas inunden nuestros canales de información con propaganda y falsedades? ¿Debemos automatizar todos los trabajos, incluidos los satisfactorios? ¿Debemos desarrollar mentes no humanas que con el tiempo nos superen en número, inteligencia, obsolescencia y reemplazo? ¿Debemos arriesgarnos a perder el control de nuestra civilización? Estas decisiones no deben delegarse en líderes tecnológicos no elegidos. Los sistemas de IA potentes sólo deben desarrollarse cuando estemos seguros de que sus efectos serán positivos y sus riesgos controlables. Esta confianza debe estar bien justificada y aumentar con la magnitud de los efectos potenciales de un sistema. La reciente declaración de OpenAI en relación con la inteligencia artificial general, afirma que "En algún momento, puede ser importante obtener una revisión independiente antes de empezar a entrenar futuros sistemas, y que los esfuerzos más avanzados acuerden limitar la tasa de crecimiento de la computación utilizada para crear nuevos modelos." Estamos de acuerdo. Ese punto es ahora.
Por lo tanto, pedimos a todos los laboratorios de IA que pausen inmediatamente durante al menos 6 meses el entrenamiento de sistemas de IA más potentes que el GPT-4. Esta pausa debe ser pública y verificable, e incluir a todos los actores clave. Si esta pausa no puede realizarse rápidamente, los gobiernos deberían intervenir e instituir una moratoria.
Los laboratorios de IA y los expertos independientes deberían aprovechar esta pausa para desarrollar y aplicar simultáneamente un conjunto de protocolos de seguridad compartidos para el diseño y desarrollo de IA avanzada que sean rigurosamente auditados y supervisados por expertos externos independientes. Estos protocolos deberían garantizar que los sistemas que se adhieran a ellos sean seguros más allá de toda duda razonable [4]. Esto no significa una pausa en el desarrollo de la IA en general, simplemente un paso atrás en la peligrosa carrera hacia modelos de caja negra impredecibles y cada vez más grandes con capacidades emergentes.
La investigación y el desarrollo de la IA deben centrarse en conseguir que los potentes sistemas de última generación sean más precisos, seguros, interpretables, transparentes, robustos, alineados, fiables y leales.
Paralelamente, los desarrolladores de IA deben trabajar con los responsables políticos para acelerar drásticamente el desarrollo de sistemas sólidos de gobernanza de la IA. Estos deberían incluir, como mínimo: autoridades reguladoras nuevas y capaces dedicadas a la IA; supervisión y seguimiento de sistemas de IA altamente capaces y grandes reservas de capacidad computacional; sistemas de procedencia y marca de agua que ayuden a distinguir lo real de lo sintético y a rastrear las fugas de modelos; un ecosistema sólido de auditoría y certificación; responsabilidad por los daños causados por la IA; financiación pública sólida para la investigación técnica sobre seguridad de la IA; e instituciones bien dotadas de recursos para hacer frente a las drásticas perturbaciones económicas y políticas (especialmente para la democracia) que causará la IA.
La humanidad puede disfrutar de un futuro próspero con la IA. Tras haber logrado crear potentes sistemas de IA, ahora podemos disfrutar de un "verano de la IA" en el que cosechemos los frutos, diseñemos estos sistemas para el claro beneficio de todos y demos a la sociedad la oportunidad de adaptarse. La sociedad ha puesto pausa a otras tecnologías con efectos potencialmente catastróficos para la sociedad [5]. Podemos hacerlo aquí. Disfrutemos de un largo verano de IA, no nos precipitemos sin estar preparados a un otoño.
Anuncio |