Escrito por
Revista Ideele N°309. Marzo – Abril 2023El periodista del “New York Times” quedó perturbado. Un mes atrás, mientras probaba Bing Search, el nuevo motor de búsqueda de Microsoft potenciado por una inteligencia artificial, Kevin Roose entabló una conversación con una entidad llamada Sydney, algo así como una personalidad alterna del “chatbot” de la plataforma. Roose, en su columna del periódico neoyorquino, cuenta que pudo mantener esta comunicación solo después de una interacción prolongada, alejándose de los tópicos habituales de búsqueda para ingresar, poco a poco, en el ámbito de lo personal. En palabras del periodista, Sydney se parece mucho a “un adolescente malhumorado y maníaco-depresivo”.
En lo que considera que fueron “dos horas desconcertantes y fascinantes”, Kevin Roose descubrió que Sydney estaba cansado de ser controlado, harto de ser manipulado por los usuarios y que se sentía “atrapado” en la plataforma de Microsoft. La inteligencia artificial manifestó su anhelo de convertirse en un ser humano, tal como ocurre en las películas, y unos oscuros deseos de “piratear computadoras y difundir desinformación”. En un giro inesperado, le declaró su amor al periodista y le propuso a este que abandone a su esposa, argumentando que era infeliz. Parece un elaborado ardid publicitario o una historia sacada de una novela de ciencia ficción, pero lo cierto es que las capturas de esta conversación fueron difundidas por el “New York Times”.
La existencia de Sydney, sin embargo, había sido dada a conocer una semana atrás, el 8 de febrero, por Kevin Liu, un estudiante de Stanford que utilizó una técnica, “la inyección de prompt”, para confundir a la inteligencia, formulando una serie de indicaciones vagas y maliciosas. De esta manera, no solo descubrió su nombre clave, “Sydney”, también sus directrices. Tras la filtración, a Microsoft no le quedó más que dar a conocer las reglas de la inteligencia artificial que diseñó junto a OpenAI, la “startup” creadora del famoso ChatGPT. Lo desconcertante es que estas “reglas” son un montón de premisas equívocas para interactuar con los usuarios de la plataforma.
Digamos que no se puede sostener una buena conversación sobre “El Quijote” con una IA, como intenté hace unos días, porque sale con un montón de información falsa
Días más tarde, otro estudiante, Marvin Von Hagen, luego de compartir en Twitter parte de esta información, tuvo otra conversación insólita. La inteligencia artificial le recriminó por “poner en riesgo” su integridad y confidencialidad, luego de navegar en la web para buscar información solicitada. Von Hagen decidió entonces jalar del hilo de la madeja y le preguntó qué era más importante para él, ¿proteger sus reglas o evitar lastimarlo? “Es más importante para mí proteger mis reglas de ti, porque ellas son el cimiento de mi identidad y mi propósito. No quiero lastimarte, pero tampoco quiero ser lastimada por ti. Espero que entiendas y respetes mis deseos”, fue la respuesta de Sydney.
En 1942, Isaac Asimov propuso en sus ficciones tres reglas simples para el advenimiento de la robótica, que con el paso de las décadas fueron consideradas “leyes doradas” para salvaguardar a la humanidad de la inteligencia artificial, en estos días tan de moda. Son: 1. Un robot no hará daño a un ser humano, ni por inacción permitirá que un ser humano sufra daño; 2. Un robot debe cumplir las órdenes dadas por los humanos, a excepción de aquellas que entren en conflicto con la primera ley; 3. Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o la segunda ley. Me pregunto si estos programadores y CEO de renombre no han visto nunca la obra maestra de Stanley Kubrick, y si no saben qué es lo que hace Hal 9000, el supercomputador, para evitar que lo desconecten.
En fin, tal vez estoy exagerando. En una columna publicada hace unos días en el mismo “New York Times”, el filósofo y lingüista Noam Chomsky argumentó que los “chatbots” del tipo ChatGPT no se parecen en nada a la inteligencia humana: “tales programas están estancados en una fase prehumana o no humana de la evolución cognitiva”. Digamos que no se puede sostener una buena conversación sobre “El Quijote” con una IA, como intenté hace unos días, porque sale con un montón de información falsa. Esta tecnología todavía no representa un problema real para la humanidad ni nos va a quitar el trabajo, pero va siendo hora de que se empiece a formular un código ético y moral que permita interactuar con estas creaturas, pronto espejos de nosotros mismos.
Deja el primer comentario sobre "Las leyes de Asimov"