GamesBeat Summit 2022 regresa con su mayor evento para líderes de juegos del 26 al 28 de abril. ¡Reserva tu asiento aquí!
Muy pronto, todos podríamos ser nuevos ciudadanos del metaverso, el universo de mundos virtuales que están todos interconectados, como en novelas como Choque de nieve Y Listo jugador uno. Y si lo hacemos bien, sería bueno obtener algunos consejos de expertos sobre la ética del metaverso.
Uno de los grandes problemas que surgirán, basado en una conversación entre las leyendas de los juegos Richard Garriott de Cayeux, creador de la serie Ultima, y Richard Bartle, profesor de la Universidad de Essex que ha realizado una investigación fundamental sobre los juegos en línea, es cómo tratar personajes que tienen inteligencia artificial.
En los videojuegos, no tenemos problemas para derribar personajes de IA porque claramente no son humanos en la forma en que se comportan. Pero a medida que la tecnología de IA mejora y poblamos estos caracteres en un metaverso, haríamos bien en pensar en ello. Bartle discutió esto extensamente en su nuevo libro, como ser un diosque habla de filosofía, teología y juegos de ordenador.
En un discurso en GamesBeat Summit 2022 titulado “Nuevos ciudadanos del metaverso”, discutieron cómo los personajes impulsados por IA reemplazarán a los estúpidos personajes no jugadores (NPC) de los juegos actuales. En el futuro, es posible que tengas una conversación durante horas con estos personajes de inteligencia artificial avanzada, que aparentemente se comportan como otros avatares, sin darte cuenta de que no son humanos. Pero si cruzamos ese umbral, ¿cuáles son la ética y el código de ciudadanía que debemos seguir? ¿Cómo tratamos a nuestros compañeros personajes de IA que son tan humanos como los humanos? ¿O no deberíamos crearlos en absoluto? Ha sido una discusión fascinante y ya no es solo ciencia ficción, dado el progreso que hemos visto en la IA y el metaverso.
Richard Garriott fue al espacio en 2008.
Garriott comenzó: “A medida que las IA se vuelven mejores y más realistas, ¿cuáles son nuestras obligaciones en cuanto a cómo tratar con estos seres cada vez más conscientes (Bartle los llama sabios) que habitan el metaverso con nosotros?”
Antes de responder, Bartle dijo: “Para uno de nuestros fanáticos, creo que es importante señalar que soy un gran admirador tuyo. A medida que pasé de escribir mis videojuegos gráficos, juegos para un solo jugador, a juegos multijugador, se hizo muy obvio que la persona cuyo cerebro necesitaba comprender mejor para pasar al modo multijugador era el tuyo. Así que muchas gracias por gran parte de ese conocimiento fundamental que ha compartido tan libremente con todos nosotros, la mayoría de nosotros en el desarrollo del juego.
Agregó: “Y una de las cosas que, lo siento por las personas que lo ven por ser realmente fanáticos aquí, siempre admiro es que cuando surge algo nuevo, no tienes miedo de probarlo. Y si no funciona, lo dejas atrás. Y si funciona, genial. Entonces ha allanado el camino para algo que el resto de la industria puede ofrecer. Así que a veces te ganas una mala reputación por ello. Pero a veces obtienes la mejor reputación por ello. Solo depende de cómo vaya. Así que supongo que es el explorador que hay en ti el que está haciendo esto.
Garriott respondió: “Sí, exactamente. De ahí vengo para todos los que están aquí hoy, como podrán ver por los antecedentes detrás de mí, es que actualmente me desempeño como presidente del Explorers Club. Y por eso estoy aquí”. en su sede en Nueva York”.
De la forma que era
¡LODO!
Garriott devolvió a Bartle a sus primeros días de juego cuando escribió su primera mazmorra multiusuario (MUD), un juego en línea basado en texto. Bartle dijo que estaba tratando de crear un mundo de juego que la gente preferiría al mundo real porque “desde nuestro punto de vista, el mundo real apestaba”.
“Solo estamos tratando de construir un mundo donde la gente quiera ir donde no tienen todas las piezas de mierda del mundo real y podrían ser esencialmente ellos mismos”, dijo Bartle. “Entonces, inicialmente, eso era lo que apuntábamos en un mundo que era para los jugadores, no para la IA”.
Pero quería mundos con personajes no jugadores (PNJ) para que se sintieran vivos.
“A medida que nos volvimos más y más sofisticados, agregamos más código y pusimos algunos e hice mi doctorado en IA, así que sabía cómo hacer que los personajes fueran inteligentes. Desafortunadamente, mis primeros intentos los hicieron demasiado inteligentes para los jugadores”, dijo. .
Es decir, los NPC debían amortiguarse para permitir que los jugadores humanos fueran más competitivos en los juegos. Esos primeros NPC podrían pelear contigo, rastrearte o robarte cosas. Pero no tenían emociones ni personalidades, como intentó hacer Garriott en Ultima IV hasta Ultima VI.
“Estaba tratando de darles una vida real a esos personajes de mis primeros juegos, lo que significa que se despertarían por la mañana, irían a trabajar, irían a almorzar, irían al pub local y luego volverían al trabajo y luego regresarían”. la tarde en casa y todos los miembros de su familia regresaron a casa al mismo tiempo.
Con juegos como Medal of Honor, Garriott comenzó a notar que los personajes empezaban a ser más creíbles. Saldrían de un ataque y correrían para cubrirse y volverían detrás de ti.
“Esta fue mi primera pista de que las IA se habían vuelto un poco más que bidimensionales”, dijo Garriott.
Bartle recordó Darklands, uno de los primeros juegos de MicroProse de 1993 en el que podías darles una historia a los NPC y luego se comportarían como les contabas. Se comportaría de otra manera. Con los juegos Ultimate posteriores, Garriott intentó diseñar una IA más sofisticada en el villano principal, lo que dificultaba eliminarlo. Pero todavía no era capaz de ser un buen agente de inteligencia artificial.
“Están trabajando en su propio interés”, dijo Bartle.
Y encuentran formas de atacarte dentro de un presupuesto de tiempo determinado. Pero eventualmente podemos ver un sistema basado en la nube donde el poder de procesamiento no está limitado y la IA podría ser manejada por el sistema más grande y desarrollar su inteligencia con el tiempo.
El futuro
La IA inteligente de Westworld.
Tanto Garriott como Bartle creen que aún no estamos cerca de las IA que realmente pueden pasar la prueba de Turing o hacer que las personas piensen que son humanos. Pero los chatbots pueden acercarse. Ahora los juegos están mejorando en el ajuste fino de la IA para niveles de dificultad cada vez más altos.
“Siempre puedes saber si un personaje es real o no simplemente preguntándole sobre el mundo real”, dijo Garriott. “¿Qué piensas del actual presidente?”
Podría cargar NPC con ese conocimiento, pero eso probablemente no los haría creíbles, dijo Garriott.
Podrías darle a un NPC una vida real y un trasfondo, pero si un tercio de su vida es proteger una pared y caminar de un lado a otro todo el día hasta que el jugador se le acerca sigilosamente para matarlo, entonces esa vida es un desperdicio y un trasfondo. Si la IA pudiera aprender a no morir y no pasar todo ese tiempo en la pared, entonces progresaría.
Suponiendo que podamos llegar allí, Garriott especuló qué pasaría si llegáramos a este mundo virtual donde realmente existen las IA. Una de sus películas favoritas fue The 13th Floor. En esa película, las IA que no se dan cuenta de que son IA se mueven por el mundo. Los jugadores pueden ingresar y habitar esas IA de vez en cuando. Si te portas mal mientras lo haces, los problemas de moralidad comienzan a surgir, dijo Garriott.
Esa película presentaba la pregunta: “¿Cuál es su obligación moral hacia los personajes una vez que son verdaderamente sensibles en cualquier sentido de la palabra o en el sentido absoluto de la palabra?” ¿Es tu responsabilidad no arruinar sus vidas? Entonces, ¿de qué deberíamos preocuparnos?”. Garriott dijo.
Bartle dijo que algunos podrían argumentar que “simplemente trayendo a estos seres a la existencia, los haremos sufrir. Y como el sufrimiento es malo, no debemos hacerlo existir. Ahora, el contraargumento es, bueno, si no los creamos, no tendrían vida en absoluto. Así que tenemos derecho a ser crueles con ellos, pero eso no funciona con sus hijos. Entonces, ¿debería funcionar en tu IA? También hay argumentos de que si quieres que tus IA sean libres de pensar, entonces deben poder sufrir o causar sufrimiento, para que puedan reflexionar sobre sus acciones. Y así, si reflexionan sobre sus acciones, desarrollan su propia moralidad, y luego actúan para que puedan arrepentirse de lo que han hecho. Y desarrolla tus pensamientos en consecuencia. Así que bien podrías objetar, es malo que la gente sufra, pero es aún peor que algunos no puedan hablar porque esto los está matando”.
Una diapositiva de Richard Bartle.
Se estaba haciendo bastante profundo.
“Creo que la ética, de hecho, es, una de las cosas de las que he hablado en mis juegos, es racionalmente deducible. Si crees que algo anda mal por una razón lógica, probablemente estarás mejor que si te dijeran que tienes que hacer algo basado en alguna doctrina, sin la lógica del por qué”, dijo Garriott. tengo que envenenar el pozo, porque todos tenemos que beberlo. Y no quiero que envenenen el pozo porque yo tengo que beberlo. Entonces hagamos un contrato social que diga no envenenar. Tengo una afinidad con lo que tú Lo que estoy diciendo es dejarles deducir lógicamente esta misma ética, o algún sentido de la moralidad. Pero no me queda claro si lo que experimentarán en la realidad de la IA, o si la realidad de la IA está conectada a la realidad física, si su conjunto de experiencias les dará los mismos mecanismos de retroalimentación, ¿dónde tienes esta empatía por las personas a las que has lastimado accidentalmente, o tienes esta empatía por alguien que se está muriendo y, por lo tanto, empatizar con el sobreviviente y la persona muerta? Estas acciones por las que podemos crear empatía , no estoy seguro de que la IA sirva. o el mismo viaje”.
Bartle preguntó: “Si hemos creado un mundo lleno de todos estos seres inteligentes artificialmente inteligentes que ni siquiera se dan cuenta de que son IA, ¿podemos cerrarlo?
“Oh, ¿puedes cometer un asesinato en masa y apagarlo todo? ¿No yo creo? Creo que es una gran pregunta. No tengo una muy buena respuesta para eso. Pero creo que esto es correcto. Esa es la pregunta correcta “, dijo Garriott. “Porque creo que vamos a tener que estar allí. Porque incluso si es en un mundo virtual, o es un robot de IA en nuestro mundo que se ha vuelto realmente inteligente. son de cualquier manera, ¿estás matando a un ser consciente real? Creo que creo que esto es exactamente con lo que tendremos que luchar en el futuro. Simplemente no estoy seguro de qué tan lejos está “.
El credo de GamesBeat cuando se trata de la industria del juego, es “donde la pasión se encuentra con los negocios”. ¿Qué significa esto? Queremos decirle lo importante que son las noticias para usted, no solo como tomador de decisiones en un estudio de juegos, sino también como fanático de los juegos. Ya sea que lea nuestros artículos, escuche nuestros podcasts o vea nuestros videos, GamesBeat lo ayudará a aprender sobre la industria y divertirse con ella. Obtenga más información sobre la membresía.