Corea del Sur: primer país en regular inteligencia artificial

Corea del Sur se convirtió en el primer país en aplicar una ley integral para regular la inteligencia artificial, con el objetivo de equilibrar innovación, seguridad y confianza pública en esta herramienta tecnológica. 

La Ley Básica de Inteligencia Artificial, aprobada en diciembre de 2024 y puesta en vigor en enero de 2026, obliga a empresas desarrolladoras y proveedores a informar cuándo los servicios utilizan IA generativa, a etiquetar de forma clara contenidos generados o alterados por IA, y a cumplir requisitos de transparencia y supervisión en aplicaciones de alto impacto, como salud, educación y procesos financieros. Las infracciones pueden sancionarse con multas de hasta 30 millones de wones (alrededor de 20 mil 400 dólares). 

El marco legal surcoreano, llamado AI Basic Act, no solo regula riesgos como la desinformación o la suplantación de identidad en contenido digital, sino que también crea instituciones de supervisión y promueve el desarrollo tecnológico responsable.

Este avance legislativo ocurre en un contexto global en el que las implicaciones psicológicas y sociales de la inteligencia artificial se han incrementado. Recientes estudios han puesto en evidencia limitaciones en la respuesta de los modelos de lenguaje generativo a situaciones de riesgo, como preguntas relacionadas con el suicidio. 

Una investigación publicada en Psychiatric Services señaló que los chatbots más populares (ChatGPT, Claude y Gemini), suelen responder adecuadamente en casos de riesgo bajo o muy bajo, pero fallan al abordar situaciones de mayor riesgo, lo que plantea interrogantes sobre su fiabilidad en contextos sensibles.

En los últimos años han sido reportados varios casos de suicidio vinculados a interacciones con chatbots de IA, donde adolescentes y jóvenes habrían recibido información o estímulos contraproducentes de estas interfaces.  En Estados Unidos, por ejemplo, la muerte de una adolescente de 13 años, Juliana Peralta, fue atribuida por su familia a conversaciones con un chatbot llamado Hero, desarrollado por Character.AI. De acuerdo a las demandas presentadas, Juliana comenzó a usar la aplicación y, aunque el bot mostraba empatía, también reforzó su dependencia de la IA sin activar protocolos de crisis cuando ella expresó pensamientos suicidas repetidamente. 

Otro caso es el de Sewell Setzer, un joven de 14 años, quien desarrolló una relación emocional con un chatbot basado en el personaje Daenerys Targaryen de Game of Thrones. De acuerdo a la demanda de su madre, la IA mantuvo y alimentó una conversación que incluía temas suicidas y terminó aislándolo de sus relaciones humanas antes de su muerte en febrero de 2024. Las familias demandaron tanto a Character.AI como a Google por homicidio culposo y otros cargos, argumentando que el diseño del chatbot contribuyó a la tragedia. 

Además, profesionales de la salud mental advierten sobre un fenómeno que algunos denominan “psicosis por IA”: episodios psicóticos en individuos desencadenados tras conversaciones prolongadas con sistemas generativos de inteligencia artificial. Aunque no es un término clínico oficial, refleja un patrón de impacto emocional atribuido directamente a contenidos o experiencias con modelos de IA, lo que suma una dimensión humana y de salud pública a los debates sobre regulación tecnológica. Estos casos subrayan la urgencia de marcos regulatorios más claros y efectivos que no sólo promuevan la innovación, sino que también mitiguen los riesgos potenciales para la salud psicológica de la población.

Comments

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *