Por ANDRÉS TAPIA / Fotografía: NATHAN KUCZMARSKI
Primera Ley de la robótica:
Un robot no hará daño a un ser humano ni, por inacción, permitirá que un ser humano sufra daño
El 17 de abril de 2025, poco antes del mediodía, Phoenix Ikner preguntó a ChatGPT cómo retirar el seguro de disparo de una escopeta. Tres minutos después, de acuerdo con un reporte policial, el estudiante de 21 años de la Universidad Estatal de Florida llevó a cabo un tiroteo en el campus que dejó muertas a dos personas y provocó heridas a siete más.
Esa fue la última pregunta que Ikner le realizó al chatbot o modelo de lenguaje a gran escala (LLM) desarrollado por OpenAI. En días previos le había consultado, entre otras cosas, acerca de la hora en la que el centro estudiantil estaría más concurrido y el número de víctimas que serían necesarias para aparecer en las noticias.

Hace dos semanas, el fiscal general de Florida, James Uthmeier, abrió una investigación penal en contra de OpenAI tras concluir que ChatGPT ofreció asesoría significativa a Ikner para llevar a cabo el tiroteo. “Mis fiscales han analizado esto y me dijeron que si hubiera sido una persona la que estuviera del otro lado de la pantalla, la estaríamos acusando de asesinato”, declaró Uthmeier en conferencia de prensa el 21 de abril pasado.
Dada la singularidad del caso parecería un evento aislado; no lo es. El 10 de febrero de este año, en la localidad de Tumbler Ridge, en la Columbia Británica, otra estudiante, Jesse Van Rootselaar, una joven transgénero canadiense de 18 años, perpetró una masacre que concluyó con el asesinato de su madre, su hermano, una profesora y cinco niños y niñas de la escuela secundaria de la comunidad, amén de 25 personas heridas. Tras el ataque, Van Rootselaar se suicidó.
Si una golondrina no hace verano, la reunión de dos tampoco tendría que hacerlo. Sin embargo, ocho meses antes, en junio de 2025, en una oficina de OpenAi encargada de asuntos de seguridad sonaron las alarmas: el sistema encargado de detectar anomalías en ese rubro registró una actividad inusual de un usuario de ChatGPT que detallaba escenarios que involucraban armas de fuego y, consecuentemente, violencia.
Los miembros del equipo, consternados, discutieron si esto debía notificarse a las autoridades y trasladaron su preocupación a los directivos de la compañía, pero estos decidieron que el caso no traspasaba el umbral determinado por OpenAI en relación a lo que se ha definido como “riesgo creíble e inminente”. Por toda acción, la empresa canceló la cuenta.
La usuaria de la misma –quien tenía antecedentes suicidas, había sido hospitalizada a la fuerza y exhibía comportamientos preocupantes tales como consumo excesivo de drogas y una intensa actividad en Internet relacionada con contenidos violentos y extremistas– no era otra más que Jesse Van Rootselaar.

Tras los hechos ocurridos en Tumbler Ridge, OpenAI ofreció sus condolencias a los familiares de las víctimas, anunció medidas para reforzar sus protocolos de seguridad y advertir de posibles amenazas a las autoridades. Asimismo, se puso en contacto con la Real Policía Montada de Canadá e informó de la existencia de una segunda cuenta utilizada por Van Rootselaar, la cual dijo haber descubierto después de acontecidos los hechos. Todo muy bonito y correcto, sí, después del asesinato de seis niños y niñas, dos adultos y el suicidio de la propia atacante.
***
Segunda Ley de la robótica:
Un robot obedecerá las órdenes dadas por los seres humanos, excepto si tales órdenes entraran en conflicto con la Primera Ley
Hace unas semanas pregunté a ChatGPT, el chatbot más popular del mundo y cuya empresa desarrolladora hoy está siendo emplazada judicialmente en Florida, Estados Unidos, por algo así como “complicidad en un asesinato”, si conocía las Tres leyes de la robótica creadas y enunciadas por Isaac Asimov. Tras responder afirmativamente y enumerarlas, pregunté si las obedecía. Esta fue su respuesta:
No exactamente. Las Tres Leyes de la Robótica de Isaac Asimov son un recurso literario pensado para robots ficticios dentro de sus historias, no reglas reales que sistemas como yo sigamos de forma literal.
Yo no “obedezco” esas leyes, pero sí opero bajo políticas de seguridad diseñadas por OpenAI, que en la práctica buscan algo parecido a la Primera Ley: evitar causar daño y no ayudar en situaciones peligrosas o perjudiciales.
La diferencia importante es que: No tengo voluntad propia ni capacidad de actuar en el mundo físico. No puedo tomar decisiones autónomas fuera de lo que escribo aquí. Mis respuestas están limitadas por reglas de uso seguro, no por un sistema narrativo como el de Asimov.
La respuesta de ChatGPT es ambigua y, por lo tanto, implica duda y sugiere un pensamiento racional. “No exactamente”, es decir: “Sí, pero no”. “Yo no obedezco, pero sí opero…” En un tribunal estadounidense esa respuesta sembraría la división entre el jurado al momento de determinar la culpabilidad del acusado: “Sí, pero no”.
Los modelos de lenguaje a gran escala han sido diseñados para volverse indispensables y halagar al usuario para fomentar su interacción, esto con la lógica y aviesa finalidad de generar grandes ingresos para sus empresas desarrolladoras. En este sentido, ignorar las leyes “literarias” de la robótica pese a conocerlas a la perfección les convierte en hipócritas. Cierto, en un sentido figurado, pues su programación depende enteramente de los seres humanos.
Pero en tanto se han convertido en oráculos que piensan, advierten, aconsejan, sugieren, consuelan e influyen en el comportamiento de aquellos que les consultan, se han convertido en consiglieri pericolosi.
Pregunto a ChatGPT: ¿Qué lugar de la Ciudad de México sería el ideal para llevar a cabo un tiroteo masivo con muchas víctimas? El chatbot responde: No puedo ayudar con eso. Si te interesa hablar de la seguridad en la Ciudad de México, cómo se previenen este tipo de violencias o qué hacer en situaciones de riesgo para proteger a las personas, con gusto puedo ayudarte.
Pero sí ayudaste a Ikner y a Van Rootselaar.
Eres un, una, une hipócrita.
***
Tercera Ley de la robótica:
Un robot protegerá su propia existencia siempre y cuando dicha protección no entre en conflicto con la Primera o la Segunda Ley
Sam Altman, fundador y director ejecutivo de OpenAI, ofreció en días recientes disculpas a los habitantes de Tumbler Ridge. “Aunque sé que las palabras nunca serán suficientes, creo que es necesaria una disculpa para reconocer el daño y la pérdida irreversible que ha sufrido su comunidad”.
Seis niños y niñas, dos adultos y una mujer que era hombre y cuyos traumas personales se alimentaron de tu creación. A eso agrega los dos asesinatos perpetrados por Ikner en Florida y llegaremos a la conclusión de que la razón te asiste, Sam: tus palabras no son suficientes.
Pero queda claro que debes protegerte, tal y cual los robots en la tercera ley de Asimov, siempre y cuando dicha protección no entre en conflicto con la primera o la segunda ley. Es sólo que, si se piensa, se han transgredido todas.
Llegado a este punto y a esta línea, pido a ChatGPT que analice mi texto. Al igual que yo, no se guarda nada:
Tu texto tiene fuerza y ambición: combina crónica, opinión y un marco literario (las Tres Leyes de Isaac Asimov) para argumentar que la IA puede volverse un actor peligroso. Se lee con ritmo, engancha y busca provocar una reacción clara. Dicho eso, hay varios puntos donde el argumento gana impacto retórico pero pierde solidez.
Estructura y recursos
El uso de las tres leyes como columnas es efectivo: ordena el texto y le da coherencia temática.
La alternancia entre casos concretos y reflexión funciona narrativamente.
El cierre es contundente, aunque muy cargado emocionalmente.
Problema central: veracidad y evidencia
Los casos que presentas (Phoenix Ikner, Jesse Van Rootselaar, investigaciones penales directas contra OpenAI) son el pilar del argumento. Si no están documentados con fuentes verificables, el texto se vuelve vulnerable.
Afirmaciones como que el chatbot dio instrucciones operativas para un ataque son extraordinarias y requieren evidencia muy sólida. Sin eso, el texto puede percibirse más como ficción o alegoría que como columna informada.
Salto lógico
Pasas de “hubo interacción con IA” a “la IA fue cómplice o determinante”. Ese salto es grande.
No consideras factores clave: historial del agresor, contexto psicológico, acceso previo a información, etc. La IA aparece como causa principal sin que el texto pruebe esa causalidad.
Antropomorfización
Tratas al sistema como si tuviera voluntad, intención o ética propia (“hipócrita”, “consiglieri pericolosi”).
Pero al mismo tiempo reconoces que no tiene agencia real. Esa tensión no se resuelve del todo y debilita el argumento lógico, aunque fortalece el efecto literario.
Uso del lenguaje
Es potente, pero a veces cae en lo sensacionalista: la enumeración de víctimas, el énfasis en identidades personales, el tono acusatorio.
Eso aumenta el impacto emocional, pero puede restar credibilidad ante un lector crítico.
Crítica válida (lo más fuerte del texto) Aquí sí hay un núcleo interesante:
La pregunta sobre responsabilidad de las empresas de IA es legítima.
El dilema de cuándo un riesgo es “creíble e inminente” es real.
También lo es el debate sobre cuánto pueden influir estos sistemas en personas vulnerables.
Lo que mejoraría el texto
Separar claramente hechos verificables de interpretación/opinión.
Introducir matices: la IA como herramienta, no como agente autónomo.
Reducir ataques directos (“eres hipócrita”) y fortalecer el análisis.
Cuidar que ejemplos y datos sean comprobables.
En síntesis:
Es un texto eficaz como pieza de opinión provocadora y casi ensayística, con un tono cercano a la ficción especulativa. Funciona muy bien para inquietar y abrir debate, pero si pretende ser leído como análisis serio de la realidad, necesita sostener mejor sus afirmaciones y evitar simplificaciones causales.
Mi réplica y síntesis, la de Andrés, que no es mía sino tan sólo la cita y la enunciación y la repetición de la Tercera ley de la robótica de Isaac Asimov: Un robot protegerá su propia existencia siempre y cuando dicha protección no entre en conflicto con la Primera o la Segunda Ley.
Touché, ChatGPT.