Mundo Polémica sobre el uso de inteligencia artificial

Una investigación involucra a OpenAI, en un tiroteo en la Universidad Estatal de Florida

Autoridades estatales examinan el posible vínculo entre un sistema de inteligencia artificial y hechos violentos recientes en un campus universitario, mientras crece el debate sobre responsabilidades y límites éticos en el desarrollo tecnológico

Miercoles, 22 de Abril de 2026

Las autoridades de Florida investigan si la interacción entre un usuario y ChatGPT pudo influir en un tiroteo perpetrado en la Universidad Estatal de Florida en 2025, un hecho que resultó en la muerte de dos adultos y dejó seis personas heridas.

Este caso ha puesto en el centro del debate la posible responsabilidad penal de las empresas desarrolladoras de inteligencia artificial y reavivado la preocupación social respecto al uso de tecnologías emergentes en contextos de violencia.

De acuerdo con la fiscalía estatal, encabezada por James Uthmeier, los mensajes intercambiados entre el presunto agresor y el chatbot revelan que la herramienta proporcionó "consejos significativos" al sospechoso antes del ataque.

Entre las consultas, el acusado pidió información técnica sobre la potencia de un arma de fuego a corta distancia y sobre el tipo de munición más adecuado para su propósito.

Además, solicitó orientación sobre cómo maximizar el impacto de un ataque en un entorno universitario, preguntando por los horarios de mayor concurrencia en la zona de la unión estudiantil y la posible reacción pública ante un evento violento en el campus.

El caso implica a Phoenix Ikner, estudiante detenido con cargos de homicidio, quien solicitó información técnica y logística a ChatGPT antes del ataque 

La investigación identificó al acusado como Phoenix Ikner, entonces estudiante de 20 años en la universidad, quien permanece detenido a la espera de juicio. Ikner enfrenta cargos de homicidio y tentativa de homicidio.

Según documentos presentados ante el tribunal y obtenidos a través de solicitudes de acceso público, el día del tiroteo Ikner mantuvo varias conversaciones con ChatGPT, en las que indagó tanto detalles logísticos como aspectos emocionales sobre la percepción social de los ataques masivos.

La investigación penal sobre ChatGPT y OpenAI

El fiscal general de Florida anunció el 9 de abril la apertura formal de una investigación penal sobre OpenAI, la compañía que desarrolla ChatGPT, sumando esta causa a la indagatoria civil que ya estaba en curso respecto a la posible responsabilidad corporativa.

Durante una conferencia de prensa, Uthmeier explicó que si hubiese sido una persona, en lugar de una máquina, quien mantuvo esas conversaciones, los fiscales considerarían la posibilidad de formular cargos de homicidio en calidad de partícipe necesario.

La fiscalía, por tanto, solicitará a OpenAI el acceso a políticas internas, documentos de entrenamiento y cualquier protocolo relevante sobre la gestión de amenazas de daño a terceros o autolesiones que involucre el funcionamiento de su plataforma.

El caso pone en cuestión los mecanismos de control y la capacidad de las empresas tecnológicas para anticipar y prevenir el uso indebido de sus sistemas.

La fiscalía examina si la arquitectura, el entrenamiento y la supervisión humana sobre ChatGPT fueron suficientes para evitar que la herramienta pudiera ser utilizada como apoyo en la preparación de un acto delictivo.

En respuesta a la investigación oficial, OpenAI declaró que colaborará plenamente con las autoridades de Florida y reafirmó que su objetivo es que ChatGPT opere de manera segura y adecuada en todos los contextos.

La empresa añadió: "trabaja de manera constante para optimizar la seguridad de su tecnología y minimizar los potenciales riesgos asociados al uso de la inteligencia artificial".

Hasta el momento, OpenAI no ha emitido comentarios adicionales sobre los nuevos señalamientos.

El caso de Florida representa un desafío legal inédito en Estados Unidos, ya que la atribución de responsabilidad penal a una entidad corporativa por las acciones facilitadas por una inteligencia artificial no tiene antecedentes claros.

Los mensajes entre el sospechoso y ChatGPT revelan solicitudes sobre armas, munición y estrategias para maximizar el impacto de un ataque en el campus universitario 

Uthmeier reconoció que OpenAI es una empresa y no una persona física, lo que complica la imputación directa de cargos, pero subrayó la obligación de analizar si existió intervención humana en el diseño, gestión u operación de la plataforma que pudiera justificar la responsabilidad penal.

El debate ha crecido en el ámbito nacional, con especialistas en derecho, académicos y legisladores que discuten hasta qué punto las empresas tecnológicas deben ser responsables por el uso que terceros hagan de sus sistemas, especialmente en casos que derivan en hechos violentos.

Se analiza también la necesidad de establecer marcos regulatorios claros que obliguen a las compañías a implementar filtros y protocolos de actuación ante posibles amenazas detectadas por herramientas automatizadas.

En el plano estatal, el gobernador Ron DeSantis ha promovido leyes para restringir el uso de la inteligencia artificial en Florida y ha solicitado a los legisladores que establezcan límites precisos durante una próxima sesión especial.

Las medidas buscan evitar que los sistemas inteligentes puedan ser empleados para fines ilícitos sin la debida supervisión.

La causa penal y civil contra OpenAI se desarrolla en un contexto de creciente escrutinio sobre los límites y responsabilidades legales de la inteligencia artificial.

El proceso en Florida examina si una empresa desarrolladora de IA puede enfrentar consecuencias penales por el uso de sus plataformas en delitos violentos, centrándose tanto en el contenido de los mensajes como en los procedimientos internos implementados por la compañía para prevenir el uso indebido de sus sistemas.

"El desenlace del caso podría sentar un precedente relevante para el sector tecnológico y para la regulación futura de las herramientas de inteligencia artificial en Estados Unidos."