Etiqueta: deepfake

  • UNICEF exige frenar con leyes abuso infantil creado con Inteligencia Artificial

    UNICEF exige frenar con leyes abuso infantil creado con Inteligencia Artificial

    El Fondo de las Naciones Unidas para la Infancia (UNICEF) advirtió que los ‘deepfakes’ sexualizando a menores, creados mediante Inteligencia Artificial, crecen sin control ante vacíos legales globales, mientras algunos países comienzan a criminalizar esta nueva forma de abuso digital.

    En medio del acelerado avance tecnológico, la alerta de UNICEF sobre el abuso infantil generado con Inteligencia Artificial expone una nueva frontera de delito digital. Las imágenes y videos, denominados deepfakes que sexualizan a menores ya no son casos aislados, sino una práctica en expansión que aprovecha la falta de regulación para operar con impunidad.

    Aunque las imágenes sean creadas por algoritmos, el daño recae sobre niñas y niños cuya identidad es manipulada, difundida y consumida en entornos digitales que operan con impunidad.

    El reciente anuncio de Gran Bretaña para criminalizar estas herramientas, marca un avance significativo, pero también evidencia el rezago del resto del mundo. En muchos países, la ausencia de leyes específicas permite que este material circule sin consecuencias, consolidando un mercado ilegal en crecimiento.

    Las empresas que impulsan modelos de IA cada vez más sofisticados suelen escudarse en la neutralidad de la herramienta, ignorando que toda innovación sin controles adecuados da entrada a usos criminales. 

    La insistencia de la UNICEF a la actualización del régimen jurídico expone una verdad: los estados siguen legislando con mentalidad antigua frente a delitos digitales que evolucionan constantemente.  La infancia, una vez más, queda atrapada en esa barrera entre progreso tecnológico y protección institucional.

    Bajo este contexto, penalizar el abuso infantil generado por la IA no es una opción, sino una obligación urgente. No se trata de censurar la innovación, más bien, se trata de establecer límites claros donde los derechos de los menores estén por encima de cualquier avance tecnológico. 

    La UNICEF insiste en que la Inteligencia Artificial debe ser una herramienta de desarrollo y no un sistema de explotación. Asimismo, advierte que, sin regulación firme y cooperación global, la tecnología seguirá siendo utilizada para vulnerar a los más pequeños, mientras la justicia queda rezagada frente a una amenaza digital que no deja de crecer. 

  • Unión Europea pone bajo la lupa a Grok, IA de Musk, por creación de contenido ilegal

    Unión Europea pone bajo la lupa a Grok, IA de Musk, por creación de contenido ilegal

    La Unión Europea inició una indagación a fondo contra la plataforma X para determinar si el chatbot IA Grok generó imágenes explícitas manipuladas, algunas presuntamente con menores, exponiendo a millones de ciudadanos a contenidos ilegales. 

    La Unión Europea, integrado por 27 naciones, inició una investigación contra la red social X, propiedad de Elon Mosk ,  luego de que su chatbot de inteligencia artificial Grok empezara a generar imágenes deepfake sexualizadas sin consentimiento, encendiendo alertas sobre los riesgos del uso de IA en plataformas digitales de alto alcance. 

    El caso detonó  tras una reacción global provocada por las herramientas de generación y edición de imágenes, con rostros de personas reales, principalmente mujeres, en situaciones sexualizadas, como trajes de baño transparentes o ropa reveladora.  Investigadores advirtieron que algunas imágenes parecían involucrar a menores de edad, lo que llevó a ciertos gobiernos a prohibir el servicio o emitir advertencias públicas.

    Ante este escenario, la UE analiza si Grok  ha acatado las obligaciones que marca la Ley de Servicios Digitales (DSA, por sus siglas en inglés), y si X ha hecho lo suficiente por las regulaciones digitales para contener los riesgos de difundir contenido ilegal.  Asimismo señaló que los riesgos vinculados a “imágenes sexualmente explícitas manipuladas” ya se han materializado. 

    Para la UE, el caso Grok representa una prueba clave sobre la responsabilidad de las grandes plataformas tecnológicas en la era de la inteligencia artificial generativa. En respuesta, X afirmó que mantiene una política de “tolerancia cero” frente a la explotación sexual infantil y la desnuez no consensuada, por lo que anunció restricciones a la generación de imágenes con vestimenta sexualizada en ciertos territorios. Sin embargo, Henna Virkkunen, fue contundente al señalar que los deepfakes sexuales son una forma de violencia digital inaceptable, por lo que advirtió que se evaluara si la empresa ha tratado los derechos de mujeres y niños como daños colaterales de su servicio. 

    El caso se suma a una investigación previa abierta en 2023 contra X por incumplimientos a la DSA, la cual derivó en una multa de 120 millones de euros por fallas en transparencia. La expansión de la inteligencia artificial no estará por encima de las reglas de protección digital.