La IA “Cicero” de Meta derrotó a los humanos en la diplomacia

Imagen del artículo titulado 'Cicerone' de Meta' La inteligencia artificial derrotó a los humanos en la diplomacia sin revelar su verdadera identidad

Foto: Alberto Pizzoli (Getty Images)

Desde que el sistema de inteligencia artificial Deep Blue de IBM derrotó al campeón mundial de ajedrez Garry Kasparov en su propio juego en 1997, la humanidad ha visto, lamentablemente, año tras año, cómo nuestros subalternos basados ​​en códigos nos ganaban en situaciones cada vez más complicadas. Sin embargo, hay un problema. Si bien los bots de IA se destacan cada vez más en vencer a los humanos en partidos cara a cara y videojuegos, a los sistemas generalmente les va mucho peor cuando se les indica que lo hagan. cooperar con otros seres humanos para realizar una tarea compartida. Los investigadores de Meta creen que su nueva IA ‘Cicero’ puede tener algo que decir al respecto.

Por primera vez, los investigadores han entrenado una inteligencia artificial para lograr un “rendimiento a nivel humano” en el juego de mesa de estrategia de guerra, según un nuevo estudio compartido con Gizmodo por el Equipo de Diplomacia de Investigación de IA Fundamental de Meta. Diplomacia. El nuevo agente de IA, que lleva el nombre del clásico estadista y erudito que presenció la caída de la República romana, pudo comunicarse y crear estrategias de manera efectiva con otros jugadores humanos, planificar los mejores métodos para la victoria y, en algunos casos, incluso pasar por humano. Ahora, dicen los investigadores, Cicero, que cumplió sus tareas combinando modelos de diálogo y razonamiento estratégico, representa un “punto de referencia” para el aprendizaje de agentes de inteligencia artificial múltiple.

Durante los últimos veinte años, una variedad cada vez más impresionante de sistemas de IA de una variedad de compañías ha derrotado a jugadores humanos en todo, desde Chess y Go hasta juegos más modernos como Astronave. Si bien son diferentes en contenido, todos esos juegos comparten una similitud clave: todos son una competencia de suma cero, el ganador se lo lleva todo.

Diplomacia es diferente. En Diplomacia, siete jugadores compiten para controlar la mayoría de los centros de suministro. Los jugadores interactúan constantemente entre sí y cada ronda comienza con una serie de negociaciones previas a la ronda. Crucialmente, Diplomacia los jugadores pueden intentar engañar a otros e incluso pueden pensar que la IA está mintiendo. Los investigadores dijeron Diplomacia es particularmente desafiante porque requiere generar confianza con los demás, “en un entorno que alienta a los jugadores a no confiar en nadie”. En otras palabras, para que una IA “gane”. Diplomacia necesita entender las reglas del juego de manera eficiente, pero también comprender fundamentalmente las interacciones humanas, el engaño y la cooperación, y saber cómo unir oraciones sin sonar como un lavavajillas que funciona mal.

Cicerón más o menos lo hizo. Meta afirma que Cicero duplicó con creces la puntuación media de los jugadores humanos de 40 jugadores online anónimos Diplomacia juegos y clasificado en el 10% superior de los jugadores que han jugado más de un juego. Cicerón incluso obtuvo el primer lugar en un torneo de ocho juegos en el que participaron 21 participantes. En cada etapa del juego, Cicero modeló cómo era probable que otros jugadores competidores actuaran en función de su desempeño en el juego y conversaciones de texto.

G/O Media puede recibir una comisión

Los investigadores realizaron su experimento de estudio el 19 de agosto y el 13 de octubre de 2022 en 40 juegos en línea anónimos de weDiplomacy.net para un total de 72 horas de juego. Los investigadores dicen que no han visto mensajes en el juego que sugieran que los jugadores humanos creen que están jugando contra una inteligencia artificial. Cicerón aparentemente “pasó como un jugador humano”, en 40 juegos por Diplomacia con 82 jugadores únicos. En un caso destacado en el estudio, Cicero pudo cambiar con éxito la mente de un jugador humano al proponer un movimiento de beneficio mutuo.

Cicero fue entrenado en una gran parte del pasado. Diplomacia datos para prepararlo para comunicarse adecuadamente con otros jugadores. Los investigadores dicen que la IA fue entrenada en 125,261 conjuntos de datos anónimos Diplomacia juegos, unos 40.000 de los cuales contenían diálogo. En total, ese conjunto de datos contenía más de 12 millones de mensajes intercambiados entre jugadores humanos.

Pero Cicerón no era perfecto. El diálogo de la IA se limitaba principalmente a acciones en su turno actual, y Cicero no era bueno para modelar cómo su diálogo con un jugador podría afectar las relaciones con los demás a largo plazo. También enviaba ocasionalmente mensajes que contenían “errores de terreno” u otros que contradecían sus propios planes. (Vale la pena señalar que los humanos a menudo cometen los mismos errores). Sin embargo, a pesar de estas advertencias, los investigadores dijeron que Cicero debería ocupar su lugar en el salón de la fama de los juegos de mesa de IA debido a su capacidad única para cooperar con los humanos.

Si bien esto es solo un estudio de un juego de mesa, los nuevos hallazgos de Meta señalan una lente potencialmente nueva y menos apocalíptica con la que ver los éxitos incrementales de la IA. En lugar de sentirse asustado por los sistemas de IA que gradualmente vencen a los humanos en los juegos que alguna vez apreciamos, Cicero sugiere un futuro en el que los humanos y las IA puedan trabajar potencialmente codo con codo como socios, o al menos, conocidos mutuos para resolver problemas.

Compruebe también

Deep Fake Zuckerberg agradece a los demócratas por su servicio e inacción en materia antimonopolio

Tan duro como suena este profundo falso, honestamente es como Mark Zuckerberg a menudo suena …

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *