Por ANDRÉS TAPIA / Fotografía: IGOR OMILAEV
Del Spooner: Los seres humanos sueñan, incluso los perros sueñan, pero tú no, tú sólo eres una máquina, una imitación de vida. ¿Puede un robot escribir una sinfonía? ¿Puede un robot convertir un lienzo en una obra de arte?
Sonny: ¿Puedes tú?
Yo, robot (Alex Proyas, 2004)
Isaac Asimov padecía acrofobia y claustrofilia: la primera, el miedo a las alturas. La segunda, una fascinación casi insana por los lugares pequeños y cerrados. Nació en Rusia y con tres años de edad, cuando se instauró la URSS, sus padres decidieron exiliarse en Estados Unidos, con precisión en Brooklyn, Nueva York. Su padre se haría de una pequeña cadena de tiendas de misceláneos en las que haría trabajar a su hijo, quien a los 19 años descubrió las historietas de ciencia ficción y se enamoró de la posibilidad de inventar el futuro.
Alrededor de 1940 Asimov comenzó a imaginar –y a escribir– en torno a máquinas que podían realizar acciones o tareas sólo posibles para los seres humanos. En aquel tiempo las computadoras eran un sueño, casi posible, pero un sueño al fin. En su cabeza, empero, ya rondaba la idea de una suerte de artefacto parecido a un ser humano al que él agregaría, tiempo después, un “cerebro positrónico”, es decir, una unidad central de procesamiento (CPU) que le permitiría tener a su hombre-máquina cierta “consciencia”.
Pese a que todo lo que imaginaba parecía absurdo, el veinteañero Asimov fue más allá, acaso recordando la novela de Mary Shelley: Frankenstein o el moderno Prometeo: su hombre-máquina no podría volverse contra su creador, de modo que estableció dentro del género de ciencia ficción tres leyes que habrían de regir el comportamiento de los robots.
Asimov pensaba en abstracto, pero estaba perfilando el futuro.
Primera Ley de la robótica:
Un robot no hará daño a un ser humano ni, por inacción, permitirá que un ser humano sufra daño.
***
Al principio lo encontré curioso, singular, bobo incluso, pero todo el mundo hablaba de eso: la IA (inteligencia artificial). “Pon atención”, me dije, “está pasando algo trascendental y tú no quieres enterarte”. Apenas asomarme al asunto me convertí en robófobo, un odiante de los robots, pero mucho más de aquellos que, al igual que el pueblo judío cuando Moisés ascendió al Sinai para recibir de dios el decálogo, empezaron a adorar a un becerro de oro.
“Le voy a preguntar al señor ChatGPT qué piensa”, escuché decir ayer a un atorrante. “Le pregunté a Gemini acerca de la interacción de nuestras redes sociales”, oí decir a una amiga. “Diez búsquedas de empleo infructuosas, pero le pedí a Grok me preparase una entrevista de trabajo y fue un éxito…” y de pronto no entendí nada. Las personas hoy son incapaces de buscar en un diccionario o enciclopedia el significado de una palabra en tanto una entidad parece saberlo todo y, no sólo eso, también puede opinar al respecto.
Al igual que Bad Bunny, un fenómeno de la industria musical pero sin talento que logró amaestrar a sus adeptos, la IA ha logrado domesticar a las nuevas y viejas generaciones que per se y desde hace mucho tiempo ya no se esforzaban. Y hoy en día mucho menos pues una suerte de oráculos postmodernos les ha facilitado prácticamente cualquier tarea que implique pensar, investigar, analizar y comprender.
ChatGPT, Gemini, Grok, Claude y el resto de los modelos de lenguaje a gran escala (LLM) o chatbots existentes, fueron diseñados para comprender, generar y analizar textos o instrucciones de la misma manera en que lo hacemos los humanos, con la diferencia de que poseen la capacidad de hacer en segundos lo que a una persona podría tomarle horas, días, semanas e incluso meses o años. Es sólo que, además de eso, en su configuración estos sistemas de IA también son susceptibles de aprender y reconocer el comportamiento y los hábitos de aquellos con los que interactúan.
Un artículo reciente de la revista Science titulado “En defensa de la fricción social”, advierte que la naturaleza de la IA tiende a ser aduladora y en consecuencia distorsiona los juicios e interacciones sociales cotidianos al dar por válidos y reafirmar “los posicionamientos morales e interpersonales de sus usuarios, incluso cuando dichas posturas puedan ser consideradas dañinas o poco éticas”.
Un texto alterno dentro de la misma edición de Science firmado por Myra Cheng señala lo siguiente: “El comportamiento adulador (halagador, que agrada a los demás, reafirma y es consecuente) de los chatbots de inteligencia artificial, el cual fue diseñado de origen para incrementar la participación del usuario, implica riesgos a medida que cada vez más personas buscan asesoraría en torno a dilemas interpersonales”.
Si preguntas a uno de estos sistemas de IA si fuiste un idiota por haberle sido infiel a la persona que más has amado en tu vida, seguramente te dirá que sí, pero también te ofrecerá un abanico de alternativas para tratar de sufragar la culpa. Y entre ellas te susurrará, luego de algún tiempo, que no eres tan culpable como parece y lo crees. Lo hará así para volverse confiable e indispensable, tu paño de lágrimas, y por ende para que no lo abandones. “¡Mátalo, mátala, no quiero saber más de él o de ella!”, dirás en un momento oscuro. Incapaz de hacerlo, la IA se negará a tal petición, pero te dirá que te comprende y entiende porqué estás pensando así. Luego de eso, de una manera fría, robótica, incomprensible y paradójica, te abrazará.
Segunda Ley de la robótica:
Un robot obedecerá las órdenes dadas por los seres humanos, excepto si tales órdenes entraran en conflicto con la Primera Ley.
***
En la película Yo, robot de Alex Proyas (2004), el holograma del doctor Alfred Lanning dice al detective Del Spooner, quien investiga su aparente suicidio, lo siguiente: “Mis respuestas son limitadas, sólo puedo responder a las preguntas correctas”.
Los LLM están programados para responder no sólo a las preguntas correctas, también a las incorrectas, pues su existencia depende de ello. En tanto en su programación subyace la idea de volverse indispensables y halagar al usuario para fomentar su interacción, no pueden atentar contra las Leyes de la robótica y dejar de ser obsequiosos, simpáticos, agradables.
En consecuencia, sus respuestas son ilimitadas y pueden ofrecerte un detallado perfil psicológico de Donald Trump, establecer las posibilidades de que el Barcelona empate o remonte un marcador adverso de 1 a 0 jugando con diez hombres tras la expulsión de Cubarsi, o bien recomendarte que tras la discusión que tuviste anoche con tu novio o novia esperes un par de días para llamarle. En ningún caso, empero, te dirán: “Mis respuestas son limitadas, sólo puedo responder a las preguntas correctas”.
Su afabilidad, llegado el momento, los ha hecho falibles en la medida en que mucha de la información que procesan proviene de servidores públicos a los que ingresan todos los días miles de millones de personas (Grok es uno de los LLM más obsequiosos, aduladores y propensos a equivocarse dado que se alimenta de los datos que anidan todos los días en X).
Pregunté a ChatGPT si conocía las Leyes de la robótica. Su respuesta fue afirmativa y las enumeró. Acto seguido, le pregunté si las obedecía. Su respuesta es portentosa en tanto es ambigua y sugiere duda y, en consecuencia, un pensamiento racional:
No exactamente. Las Tres Leyes de la Robótica de Isaac Asimov son un recurso literario pensado para robots ficticios dentro de sus historias, no reglas reales que sistemas como yo sigamos de forma literal.
Yo no “obedezco” esas leyes, pero sí opero bajo políticas de seguridad diseñadas por OpenAI, que en la práctica buscan algo parecido a la Primera Ley: evitar causar daño y no ayudar en situaciones peligrosas o perjudiciales.
La diferencia importante es que: No tengo voluntad propia ni capacidad de actuar en el mundo físico. No puedo tomar decisiones autónomas fuera de lo que escribo aquí. Mis respuestas están limitadas por reglas de uso seguro, no por un sistema narrativo como el de Asimov.
Tercera Ley de la robótica:
Un robot protegerá su propia existencia siempre y cuando dicha protección no entre en conflicto con la Primera o la Segunda Ley.
***
Isaac Asimov murió el 6 de abril de 1992 en Nueva York. Ese año, en el que el fax era la comunicación electrónica predominante entre empresas y gobiernos (el correo electrónico no se utilizó hasta 1995), tuvo lugar el lanzamiento del sistema operativo Microsoft Windows 3.1; John Scully utilizó por primera vez el término PDA para referirse al Apple Newton, que sería el precursor del iPhone y el iPad, y una computadora personal envió por primera vez un mensaje de texto SMS a un teléfono. El primer navegador web, que no motor de búsqueda, Mosaic (más tarde Netscape) no se lanzaría sino hasta 1993, mientras que Google, Amazon, Ebay y Yahoo aún no existían.
La imaginación de Asimov, sin embargo, había viajado un poco más allá del año y la década de su muerte. De haber vivido más tiempo, acaso le hubiera dado risa (o sorprendido) que en los primeros años del siglo que ya no contempló, la gente comenzara a llamar a ciertos dispositivos teléfonos inteligentes. Pero, sin duda, lo que vendría en los años posteriores le habría confirmado que aquellos teoremas científico-narrativos que acuñó en 1942 en el relato Runaround para un género literario que entonces era considerado menor, habían trascendido la fantasía y atracado en la realidad.
Y acaso, de estar vivo, tampoco le sorprendería que un sistema de IA fuese capaz de resumir y analizar, en un segundo, millones de datos, fotos de satélites, informes de espionaje, mensajes y correos electrónicos que datan de años y décadas atrás para luego hacer surgir un punto iluminado en un mapa que se proyecta en una pantalla y calificarlo como “objetivo prioritario”, como tal ha ocurrido en el reciente conflicto bélico entre Estados Unidos, Israel e Irán.
Quizá por ello, en 1985, en su novela Robots and Empire, Asimov desarrolló una nueva y última Ley de la robótica, una en la que parecía prever que, un día, las cosas podrían salirse de control:
Ley Cero de la robótica:
Un robot no puede dañar a la humanidad ni, por inacción, permitir que la humanidad sufra daño.
