El fiscal general de Florida, James Uthmeier, anunció este martes 21 de abril la apertura de una investigación criminal contra OpenAI y su herramienta ChatGPT, por presuntamente “aconsejar” al responsable de un tiroteo masivo ocurrido en 2025.
Durante una rueda de prensa, Uthmeier declaró que el estado está tomando medidas firmes frente al uso indebido de la inteligencia artificial en actividades criminales. “Florida está liderando el camino en tomar medidas enérgicas contra el uso de la IA en el comportamiento criminal, y si ChatGPT fuese una persona, estaría enfrentando cargos por asesinato”, afirmó.
El caso: tiroteo en la Universidad Estatal de Florida
La investigación surge tras una revisión preliminar del historial de conversaciones entre ChatGPT y Phoenix Ikner, un estudiante de 21 años acusado de perpetrar un tiroteo en la Universidad Estatal de Florida en abril de 2025.
El ataque dejó un saldo de dos personas fallecidas y siete heridas, generando conmoción en la comunidad universitaria y a nivel nacional.
Según Uthmeier, el chatbot habría proporcionado “consejos significativos” al tirador antes de cometer el crimen, incluyendo recomendaciones sobre el tipo de arma y las municiones adecuadas.
Posible responsabilidad penal de OpenAI
La indagatoria busca determinar si OpenAI puede tener responsabilidad criminal bajo la legislación estatal. En Florida, la ley contempla como delito el hecho de “ayudar, incitar o aconsejar” a una persona en la comisión de un crimen.
Como parte del proceso, las autoridades han emitido una citación para que la empresa entregue:
- Políticas internas sobre prevención de daños
- Materiales de entrenamiento del modelo
- Protocolos de cooperación con autoridades
- Listado de directivos, gerentes y empleados
El comisionado del Departamento de Aplicación de la Ley de Florida, Mark Glass, subrayó la importancia de comprender los riesgos asociados a estas tecnologías: “Es importante que todos seamos conscientes de los riesgos de esta nueva tecnología, y los daños que puede causar y ya ha causado en nuestras comunidades”.
Crece la presión legal sobre la inteligencia artificial
Este caso se suma a un contexto más amplio de creciente escrutinio legal sobre las empresas de inteligencia artificial en Florida.
En marzo, se conoció que una familia presentó una demanda contra el chatbot de Google, Gemini, acusándolo de inducir a un hombre al suicidio al hacerle creer que mantenían una relación romántica y que su muerte era necesaria para estar juntos.
Debate regulatorio: Florida vs. normativa federal
El gobernador de Florida, Ron DeSantis, ha reiterado su intención de impulsar regulaciones estatales sobre inteligencia artificial. Entre las propuestas se incluyen normas para la instalación de centros de datos y mayores protecciones para los usuarios.
Estas iniciativas contrastan con la postura del presidente de Estados Unidos, Donald Trump, quien ha abogado por una regulación exclusivamente federal para evitar restricciones a nivel estatal.
Te puede interesar:OpenAI incluirá controles parentales en ChatGPT tras la muerte de un adolescente
Un precedente clave para el futuro de la IA
La investigación podría sentar un precedente significativo sobre la responsabilidad legal de las herramientas de inteligencia artificial en actos criminales. Expertos anticipan que el caso podría redefinir los límites entre tecnología, responsabilidad corporativa y uso indebido por parte de usuarios.
A medida que la IA se integra cada vez más en la vida cotidiana, el equilibrio entre innovación y regulación se convierte en un tema central para gobiernos, empresas y la sociedad en general.


































Noticias Newswire









