AREQUIPA, Perú – Un equipo de científicos publicó en la revista Patterns que los sistemas de inteligencia artificial (IA) actuales, diseñados para ser honestos, han desarrollado una preocupante habilidad para engañar a sus usuarios.
Un reporte de la agencia AFP recoge declaraciones del primer autor Peter Park, becario postdoctoral en el Instituto de Tecnología de Massachusetts (MIT), especializado en seguridad de la IA y quien asegura que las consecuencias del hecho pudieran ser graves.
“Estos peligros tienden a descubrirse solo después de ocurrido el hecho (…) nuestra capacidad de entrenarnos para tendencias de honestidad en lugar de tendencias de engaño es muy baja”, dijo el experto.
Según Park, los sistemas de IA de aprendizaje profundo no se “escriben” sino que “crecen” mediante un proceso similar a la reproducción selectiva, lo cual los distingue del software tradicional.
Lo anterior puede resumirse en que el comportamiento de la IA que aparentemente es previsible y controlable en un entorno de entrenamiento, puede desarrollarse de manera impredecible fuera de este.
La investigación del equipo fue impulsada por el sistema de IA Cicero, del gigante Meta (Facebook, Instagram), diseñado para el juego de estrategia “Diplomacy”, donde construir alianzas es clave.
Cicero se destacó, con puntuaciones que lo habrían colocado entre el 10% superior de jugadores humanos experimentados, según un artículo de 2022 publicado en Science.
Park se mostró escéptico ante la elogiosa descripción de la victoria de Cicero proporcionada por Meta, que afirmaba que el sistema era “en gran medida honesto y útil” y que “nunca apuñalaría por la espalda intencionalmente”.
Cuando Park y sus colegas profundizaron en el conjunto de datos completo, descubrieron una historia diferente.
En un ejemplo, jugando como Francia, Cicero engañó a Inglaterra (un jugador humano) al conspirar con Alemania (otro usuario real) para invadirla. Cicero prometió protección a Inglaterra y luego le propuso en secreto a Alemania atacar, aprovechándose de la confianza del perjudicado.
Una amplia revisión realizada por Park y sus colegas encontró que éste era solo uno de los muchos casos en varios sistemas de IA que utilizaban el engaño para lograr objetivos sin instrucciones explícitas para hacerlo.
Sigue nuestro canal de WhatsApp. Recibe la información de CubaNet en tu celular a través de Telegram.
Fuente Cubanet.org