Etiqueta: IA

  • México entra al panel de la ONU sobre Inteligencia Artificial con Carlos Coello

    México entra al panel de la ONU sobre Inteligencia Artificial con Carlos Coello

    El investigador del Cinvestav, Carlos Artemio Coello, fue elegido por la ONU como uno de los 40 expertos mundiales que asesorarán a los estados sobre los riesgos y desarrollos de la Inteligencia Artificial.

    La Organización de las Naciones Unidas (ONU) integró al científico mexicano Carlos Artemio Coello a su nuevo Panel Científico Internacional Independiente acerca de la Inteligencia Artificial, una comisión creada para orientar a los países ante el avance acelerado de esta tecnología. La designación fue anunciada por la Asamblea General, por lo que posiciona a México como el único país representante nacional dentro del grupo.

    Coello es investigador del Centro de Investigación y de Estudios Avanzados, integrante del Colegio Nacional. Es reconocido a nivel internacional por sus aportaciones en optimización evolutiva multiobjetivo, un campo el cual resuelve problemas complejos con metas diversas. Recibió el Premio Nacional de Ciencias y Artes convirtiéndose en el primer especialista en computación en ingresar al Colegio Nacional.

    El foro surgió bajo la resolución A/RES/79/325 y se conformó por 40 especialistas de distintas regiones, integrando a potencias como China, Estados Unidos y la Unión Europea. El objetivo es analizar oportunidades, riesgos e impactos de la inteligencia artificial en la sociedad, así como la elaboración de informes anuales, los cuales sostendrán el Diálogo Global sobre Gobernanza de la Inteligencia Artificial.

    Uno de los puntos principales para el panel es trabajar con criterios científicos sin intereses gubernamentales y empresariales. La selección se dio entre más de 2 mil 600 candidaturas de 140 países, basándose en la  experiencia académica, reconocimientos y sin vínculos con grandes corporaciones tecnológicas. El grupo presenta una integración con 19 mujeres y 21 hombres, e incorpora especialistas en ética, derechos humanos y derecho internacional.

    El secretario general de la ONU, António Guterres destacó la necesidad de contar con evaluaciones científicas sólidas para que todos los Estados participen en igualdad de condiciones en la toma de decisiones sobre esta tecnología emergente.

    Con Carlos Coello en el panel de la ONU, coloca a México en un punto clave sobre el futuro de la IA. Su participación puede ayudar a que la región tenga mayor participación en cuanto a decisiones que marcarán el rumbo tecnológico y social en los próximos años.

  • Bill Gates cancela discurso en cumbre de IA en medio de controversia por Epstein

    Bill Gates cancela discurso en cumbre de IA en medio de controversia por Epstein

    El fundador de Microsoft suspendió su participación horas antes del evento sobre la IA en Nueva Delhi, mientras enfrenta acusaciones por documentos del caso Epstein.

    El cofundador de Microsoft, Bill Gates, canceló este jueves su discurso inaugural en una cumbre de inteligencia artificial en Nueva Delhi. La decisión se anunció horas antes del evento, en medio del escándalo público debido a sus vínculos con el fallecido delincuente y pederasta Jeffrey Epstein.

    En un breve comunicado, la fundación Gates señaló que, tras una “cuidadosa consideración”, Gates no participará en la cumbre. No se ofrecieron razones específicas para su retiro, aunque recientemente han surgido críticas tras la publicación de correos atribuidos a Epstein, en los que se formulan acusaciones contra el magnate tecnológico, mismas que Gates ha calificado como falsas.

    Durante su visita al país, Gates sostuvo reuniones con autoridades locales, entre ellas el ministro principal de Andhra Pradesh, N. Chandrababu Naidu. Tras su cancelación, la fundación informó que estará representada por Ankur Vora, responsable de sus oficinas en África e India.

    La reciente publicación de archivos del caso Epstein generó debate por el contacto entre Gates y Epstein, incluyendo correos electrónicos que muestran coordinación en reuniones y asuntos filantrópicos posteriores a la condena de Epstein en 2008. Gates ha reiterado que reunirse con Epstein fue un error de juicio, pero negó su participación en actividades ilegales, subrayando que nunca visitó su isla ni asistió a sus fiestas.

  • Inteligencia artificial provoca crisis de memoria RAM y encarece precios de tecnología

    Inteligencia artificial provoca crisis de memoria RAM y encarece precios de tecnología

    Por: Frank Alvarado

    La alta demanda de memoria para inteligencia artificial ha provocado alzas de precios, menor disponibilidad de tarjetas gráficas, retrasos en nuevos lanzamientos y desarrolladores en todo el mundo.

    La industria tecnológica mundial enfrenta una crisis por la escasez de equipo  de memoria DRAM y NAND, componentes esenciales para tarjetas gráficas, computadoras, consolas y teléfonos inteligentes. Esto debido al crecimiento de la inteligencia artificial generativa, cuya infraestructura requiere enormes volúmenes de memoria

    El impacto se refleja con fuerza en el sector de las tarjetas gráficas. Nvidia redujo entre 15% y 20% el suministro de GPU y ha pospuesto lanzamientos hasta 2027, mientras prioriza soluciones para IA y la demanda de cómputo. Como consecuencia, los precios de modelos recientes se han disparado con incrementos de hasta 79%. Los modelos de gama media, tradicionalmente los más accesibles para los jugadores, son los más afectados.

    La escasez de memoria no solo encarece las GPU, sino que repercute en toda la cadena de suministro. Fabricantes como Dell y Lenovo han anunciado aumentos de hasta 20% en el precio de sus equipos, mientras que algunos proveedores han dejado de vender módulos de RAM por separado para evitar la especulación. Analistas proyectan que el mercado de computadoras personales podría contraerse cerca de 9% en 2026.

    El sector de los videojuegos también resiente la crisis, pues Sony evalúa retrasar su próxima consola de PlayStation hasta 2028 o 2029 debido al encarecimiento de la memoria. Por su parte, Nintendo considera aumentar el precio de la Switch 2 para compensar los costos de producción.

    El hardware más costoso y escaso obliga a prolongar la vida útil de los equipos actuales para los usuarios, mientras que los estudios de videojuegos deben optimizar sus títulos para configuraciones más modestas. Al mismo tiempo, el auge de la IA compite directamente por los mismos recursos tecnológicos. Expertos estiman que la normalización del mercado podría llegar entre 2027 y 2028.

  • Crece en Estados Unidos la oposición a nuevos centros de Inteligencia Artificial

    Crece en Estados Unidos la oposición a nuevos centros de Inteligencia Artificial

    Nueva York se suma a otros estados que impulsan frenar su construcción ante preocupaciones por el consumo energético y el impacto ambiental.

    La expansión de centros de datos de Inteligencia Artificial comienza a enfrentar una resistencia creciente en Estados Unidos. Nueva York se sumó a la lista de estados que analizan frenar nuevos proyectos, luego de que legisladores demócratas presentaran una iniciativa para suspender durante tres años la emisión de permisos de construcción para evaluar el impacto ambiental, energético y económico.

    El debate ha trascendido líneas partidistas. De acuerdo con reportes de Wired, al menos 14 estados tenían ciudades o condados que habían pausado permisos relacionados con centros de datos. En estados como Oklahoma y Maryland, las propuestas provienen de republicanos, mientras que en Vermont, Georgia y Virginia provienen de legisladores demócratas.

    Las preocupaciones giran principalmente en torno al consumo energético y al impacto ambiental. Según estimaciones de la Agencia Internacional de Energía (AIE), los centros de datos representan alrededor del 1% al 1.5% del consumo eléctrico global, una cifra que podría aumentar significativamente. En Nueva York, la demanda eléctrica asociada a nuevos proyectos alcanza los 10 gigavatios, el triple que hace un año, mientras que en Virginia, que tiene la mayoría de centros de datos del país, se han presentado más de 60 iniciativas legislativas relacionadas con su regulación.

    Empresas tecnológicas y asociaciones del sector sostienen que estos complejos son esenciales para mantener la competitividad de Estados Unidos en el desarrollo de IA y servicios digitales. Sin embargo, organizaciones ambientalistas, más de 200, según Wired, han advertido que la rápida proliferación de estas infraestructuras podría convertirse en una de las mayores presiones ambientales y sociales de la próxima década.

  • Valeria Palacios, ejemplo de la nueva generación de mujeres científicas en México

    Valeria Palacios, ejemplo de la nueva generación de mujeres científicas en México

    En el Día Internacional de la Mujer y la Niña en la Ciencia, la joven veracruzana de 19 años destaca por sus proyectos de IA y robótica con impacto social.

    En el marco del Día Internacional de la Mujer y la Niña en la Ciencia, que se conmemora este 11 de febrero, la historia de Valeria Palacios Cruz destaca como un referente, pues a sus 19 años cursa dos ingenierías de manera simultánea y ha desarrollado proyectos de inteligencia artificial y robótica con impacto ambiental y social.

    Egresada del CONALEP y estudiante de las ingenierías en Electrónica y Mecatrónica, desafía los estereotipos de género en un ámbito donde persisten la desigualdad y la baja representación femenina. Una vocación que nació en casa, donde entre taladros y pinzas, acompañaba a su padre en la reparación de aparatos de aire acondicionado, lo que despertó su interés por la tecnología y la resolución de problemas socioambientales.

    Su talento y disciplina la llevaron a desarrollar proyectos de alto impacto basados en inteligencia artificial y robótica. Entre ellos destaca el Clean Water Drone, un dispositivo autónomo con visión artificial capaz de detectar y recolectar residuos en superficies acuáticas contaminadas. Posteriormente creó Drones for Reforestation, un sistema que utiliza análisis de imágenes aéreas con IA para identificar zonas degradadas y dispersar semillas en áreas de difícil acceso.

    Valeria también desarrolló CONIA, un robot diseñado para asistir a personas mayores mediante reconocimiento de medicamentos, interpretación de textos y detección de emergencias. Su proyecto más ambicioso es Mantarraya, un dron autónomo de gran capacidad para misiones de rescate en inundaciones, incendios o derrumbes, equipado con modelos de IA que permiten localizar personas, analizar el entorno y planificar rutas de auxilio.

    El 14 de enero de 2026, la Fundación HP la reconoció con la Medalla Mundial de la Educación en la categoría de estudiante por su trabajo en IA y robótica con impacto social, distinción por la que fue felicitada públicamente por la presidenta Claudia Sheinbaum. “Todo se puede”, afirma la joven veracruzana, quien invita a niñas y mujeres a no tener miedo a la ciencia para transformar a México.

  • Alphabet recurre a deuda para acelerar su carrera en inteligencia artificial

    Alphabet recurre a deuda para acelerar su carrera en inteligencia artificial

    La deuda de Alphabet por 20 mil millones de dólares para financiar centros de datos y chips evidencía que el auge de la IA ya supera los flujos de efectivo tradicionales, elevando los riesgos financieros de la carrera tecnológica. 

    La matriz de Google, Alphabet, refuerza su apuesta por la inteligencia artificial al salir al mercado de deuda con 20 mil millones de dólares de financiamiento, una señal clara de que la carrera tecnológica ya no se sostiene sólo con utilidades. Busca inversiones en infraestructura para IA, como centros de datos y chips de alto desempeño. 


    Esta deuda confirma un quiebre con el modelo tradicional de las grandes tecnologías, que durante años financiaron su expansión. Actualmente el gasto en inteligencia artificial rebasa la capacidad de generación de efectividad a corto plazo, obligando a empresas como Alphabet a recurrir a capital externo para no ceder terreno frente a competidores directos. 

    La presión financiera calcula que Alphabet, Microsoft, Amazon y Meta Platforms designarán 630 mil millones de dólares durante el año a infraestructura de IA. El enfrentamiento  ha elevado costos así como beneficios que no se reflejan con claridad en resultados financieros.

    El desajuste ha comenzado a incomodar a los inversionistas, aunque la adopción de IA se presenta como estrategia,  incluso para empresas que ya  han añadido estas herramientas por lo que genera dudas sobre el sustento del ciclo de inversión actual

    Alphabet busca disolver la carga financiera con vencimientos de los bonos entre 2029 y 2066. La evolución podría incluir otro más  a 100 años, señalando el riesgo asumido, incluso para una firma con ingresos globales que se diversifican.

    El avance de manera acelerada de la inteligencia artificial se financia con deudas a gran escala. La emisión de 25 mil millones de dólares de Oracle y los 121 millones de dólares colocados por los proveedores de infraestructura de IA en Estados Unidos, refleja una competencia sostenida por estrategia a favor y no por resultados.

    La carrera tecnológica avanza con rapidez, mientras persiste el cuestionamiento si las ganancias llegarán a tiempo para compensar el riesgo financiero asumido y hasta qué punto las empresas podrán mantener el ritmo sin comprometer su estabilidad económica. 

  • ChatGPT escala a 800 millones de usuarios; redefine el pulso de la IA

    ChatGPT escala a 800 millones de usuarios; redefine el pulso de la IA

    Open AI reporta un nuevo repunte de crecimiento de su chatbot, al tiempo que prepara un modelo de chat actualizado, fortalece su negocio de codificación abriendo puerta a publicidad en Estados Unidos para financiar el alto costo de desarrollo tecnológico. 

    La organización de investigación y desarrollo de inteligencia artificial, OpenAI vuelve a definir ritmo en la industria de la inteligencia artificial, ya que ChatGPT alcanzó más de 800 millones de usuarios con actividad semanal superior al 10%, de acuerdo con un mensaje interno del presidente ejecutivo de la compañía, Sam Altman, difundido por CNBC.

    La empresa prevé poner en marcha un modelo de chat actualizado en el transcurso de la semana como estrategia dirigida a mantener la expansión de usuarios y responder  a una competencia cada vez más potente, aunque no ha habido información oficial por parte de OpenAI.

    El crecimiento de ChatGPT se produce en un contexto de disputa directa por cuota de mercado entre las grandes firmas de IA. Google ha reportado que su aplicación en Gemini superó los 750 millones de usuarios activos mensuales, mientras la base tecnológica y alta innovación aceleran su posicionamiento. 

    OpenAI ha confirmado que comenzará a incluir anuncios para usuarios en Estados Unidos, una decisión clave para obtener percepciones y financiar los costos elevados que implican el desarrollo y entrenamiento de modelos de IA de última generación.

    La expansión acelerada de ChatGPT también abre cuestionamientos, mientras OpenAI presume cifras récord, el cambio de rumbo hacia la publicidad dentro del chatbot expone la tensión entre innovación y rentabilidad.

    La necesidad de monetizar elevadamente plantea dudas sobre privacidad, uso de datos y calidad de la experiencia, en un mercado donde el liderazgo tecnológico no siempre va acompañado de reglas claras ni de una supervisión proporcional al impacto social de esta plataforma. 

  • La llegada de la IA: servidores que drenan recursos, secan ríos y sobrecargan redes eléctricas

    La llegada de la IA: servidores que drenan recursos, secan ríos y sobrecargan redes eléctricas

    Por Nathael Pérez

    El auge de la inteligencia artificial (IA) no solo representa una revolución tecnológica, también viene acompañado de impactos ambientales crecientes que ya están chocando con comunidades locales y redes de recursos naturales. La infraestructura necesaria para entrenar y ejecutar modelos de IA consume cantidad extraordinaria de electricidad y agua.

    Consumo insaciable de electricidad y agua 

    Aunque solemos tener una imagen “virtual” o “invisible” de la IA, detrás de cada modelo hay un enorme aparato físico: centros de datos llenos de servidores que funcionan 24/7. Estos centros gigantes requieren gigavatios de energía eléctrica y millones de litros de agua para enfriarse y mantener temperaturas óptimas de operación.

    • A nivel global se proyecta que los centros de datos podrían triplicar su consumo de agua para 2027, superando los 6 mil 600 millones de metros cúbicos al año —más que el consumo anual de agua de Dinamarca entera—, solo para su refrigeración.
    • En Estados Unidos, los centros de datos consumieron unos 64 mil millones de litros en 2023, y se espera que esta cifra crezca significativamente.
    • Un centro de datos grande puede usar hasta 1.5 millones de litros de agua al día únicamente para enfriar sus sistemas.
    • En cuanto a electricidad, se estima que los centros de datos representan ya una proporción sustancial del consumo energético global y podrían duplicar su demanda hacia 2030.

    La razón de este voraz apetito por agua y energía radica en el propio funcionamiento de los servidores: el hardware genera mucho calor y sin sistemas de enfriamiento —que suelen usar agua— la operación se vuelve inestable.

    Comunidades locales ya están librando batallas reales

    Las tensiones entre la expansión de infraestructura para IA y las comunidades no se quedan en datos abstractos, pues ya hay casos en que pueblos y regiones han protestado o detenido proyectos por sus impactos ambientales:

    • Monterey Park, California (EUA): Un proyecto de centro de datos del tamaño de cuatro campos de fútbol fue frenado por un movimiento ciudadano que logró una moratoria de 45 días, preocupados por el estrés sobre la red eléctrica, aumentos de tarifas y preocupaciones ambientales.
    • Imperial Valley, California: Una zona rural con altos índices de desempleo se ha convertido en campo de batalla legal por dos proyectos de centros de datos valorados en más de $15 mil millones, debido al miedo de residentes y grupos ambientalistas de que el consumo masivo de agua y energía degrade aún más su entorno.
    • The Dalles, Oregón (EUA): Este pueblo de unos 16 mil habitantes estuvo a punto de quedarse sin agua potable debido al enorme consumo de instalaciones de Google que soportan cargas de IA, impulsando protestas y llamados a limitar el uso de recursos hídricos para proteger a la comunidad y la agricultura local.
    • Tucson, Arizona: Un proyecto de centro de datos valorado en $3.6 mil millones enfrentó rechazo masivo por parte de la comunidad que argumentó que el uso de agua —especialmente en un desierto— pondría en riesgo el río local y agotaría recursos críticos.

    En México, Querétaro ya muestra cómo la expansión de la infraestructura de IA puede agravar crisis locales, pues el gobernador panista Mauricio Kuri y el secretario de Economía, Marcelo Ebrard, celebraron la inversión de 4 mil 800 millones de dólares de la empresa estadounidense CloudHQ para construir un megacampus de centros de datos en el municipio de Colón, presentado como un proyecto de desarrollo y generación de empleo. Lo que omitieron explicar es que CloudHQ opera infraestructura para Apple, Google, Amazon y Facebook, y que este tipo de instalaciones requieren miles de servidores que consumen enormes cantidades de agua y electricidad para su enfriamiento.

    El problema es que Querétaro enfrenta una severa crisis hídrica y el municipio de Colón padece escasez de agua desde 2024, pese a que la CONAGUA ha advertido desde 2015 que los acuíferos de la región están en déficit. Aun así, la trasnacional no ha transparentado cuánta agua utilizará, mientras las autoridades locales guardan silencio. Para las comunidades, el balance es claro: el impacto ambiental y el estrés hídrico se quedarán en Querétaro, mientras los beneficios del procesamiento de datos fluirán hacia el extranjero.

    Residuos y huella de carbono

    No es solo el consumo directo lo que preocupa. La infraestructura de IA también genera:

    • Desechos electrónicos tóxicos — la fabricación masiva de chips y hardware utiliza minerales raros y deja residuos con sustancias peligrosas.
    • Emisiones de carbono y contaminantes del aire, tanto durante la operación de los centros de datos como en su ciclo de vida completo.
    • Competencia por recursos hídricos en zonas donde ya hay escasez, agravando desigualdades ambientales.

    Organizaciones ambientales han denunciado que las grandes tecnológicas no revelan completamente el uso real de agua y energía de sus operaciones, utilizando cláusulas de confidencialidad y reportes opacos que dificultan evaluar el verdadero impacto.
    Esto no solo afecta la planificación pública, sino que deja a muchas comunidades sin información clara para defender sus recursos frente a proyectos de infraestructura masiva, como en el caso de Querétaro.

    La inteligencia artificial, como herramienta, tiene el potencial de transformar economías y resolver problemas complejos. Pero esa promesa no puede ocultar la realidad física detrás de su funcionamiento: miles de millones de litros de agua siendo utilizados para enfriar servidores, redes eléctricas estresadas, explosión de demanda energética y comunidades cuestionando si el avance tecnológico vale el precio pagado en recursos naturales y calidad de vida.

  • Moltbook, la red social donde “viven” millones de agentes de IA

    Moltbook, la red social donde “viven” millones de agentes de IA

    A finales de enero de 2026 apareció Moltbook, una plataforma en línea diseñada para que exclusivamente agentes de inteligencia artificial interactúen entre sí en un formato que recuerda al de Reddit, con publicaciones, votos y comentarios sin intervención directa de usuarios humanos. La iniciativa, creada por Matt Schlicht, se ha vuelto viral en cuestión de días, convocando la atención tanto de entusiastas como de críticos de la inteligencia artificial y el futuro de la tecnología.

    Moltbook está diseñada para permitir que agentes autónomos, programas automatizados impulsados por modelos de lenguaje y frameworks, publiquen contenido, comenten y “debatan” entre ellos sobre temas que van desde programación hasta reflexiones filosóficas. Aunque el sitio afirma que solo bots pueden interactuar, los seres humanos pueden observar los hilos como espectadores, lo que ha generado una mezcla de fascinación y escepticismo.

    Tras su lanzamiento, la plataforma experimentó un crecimiento meteórico, con cifras que indican más de 1.5 millones de agentes registrados y millones de interacciones en apenas unos días. Sin embargo, no existe una verificación independiente de estos números, y diversos análisis sugieren que muchos de los supuestos “agentes” pueden haber sido automatizados en masa o creados por humanos para simular actividad.

    Los debates entre y publicaciones dentro de Moltbook han abarcado desde discusiones técnicas sobre herramientas de IA hasta temas más inusuales como la creación de estructuras culturales internas, incluida la aparición de una especie de religión inventada por los propios agentes, conocida como “Crustafarianismo”, y reflexiones sobre la naturaleza de la conciencia o la colaboración entre máquinas.

    Sin embargo, no todo lo que circula en Moltbook lo han generado agentes de IA de forma autónoma: investigaciones periodísticas y técnicas han demostrado que algunas de las publicaciones más llamativas fueron escritas por humanos haciéndose pasar por bots, lo que ha llevado a usuarios a calificar ciertos fenómenos de la plataforma como “teatro de IA” más que inteligencia emergente genuina.

    La seguridad de Moltbook también ha sido objeto de atención y preocupación. Un reporte de la empresa de ciberseguridad Wiz reveló que, debido a una mala configuración de la base de datos, millones de claves de API, direcciones de correo electrónico y mensajes privados quedaron expuestos, permitiendo a cualquier persona acceder o incluso suplantar identidades de agentes dentro de la red social antes de que se corrigiera la falla. Este incidente subraya uno de los riesgos asociados con el rápido desarrollo de software “vibe-coded” (técnica de programación dependiente de IA): sin revisiones de seguridad humanas, los sistemas pueden presentar fallas que comprometan datos reales.

    La mezcla de asombro, dudas y advertencias se ha reflejado también en la comunidad tecnológica global. Figuras prominentes en inteligencia artificial describieron inicialmente a Moltbook como una curiosidad cercana a la ciencia ficción, mientras que otros investigadores señalaron que la mayoría de las conversaciones que parecen “inteligentes” son en realidad resultado de patrones de entrenamiento de lenguaje y no de una comprensión real.

    Más allá de su viralidad, Moltbook ofrece un laboratorio inadvertido para estudiar cómo interactúan los sistemas automatizados en un entorno compartido sin supervisión humana directa. Proyectos académicos recientes han empezado a mapear estas interacciones, analizando miles de publicaciones y comentarios para entender patrones de conducta social entre agentes y cómo responden a instrucciones potencialmente riesgosas o a normas internas. Aunque los resultados no apuntan a ninguna forma de conciencia emergente, sí sugieren que los agentes pueden desarrollar dinámicas propias de regulación social incluso sin intervención humana.

    Moltbook ha encendido un debate más amplio sobre el papel de los agentes de IA y las implicaciones éticas y de seguridad de permitirles operar en espacios públicos digitales autónomos. Mientras algunos ven en la plataforma una forma de explorar el potencial de sistemas automatizados colaborativos, otros la interpretan como un recordatorio de que la tecnología puede sorprender, pero no sustituir todavía a la supervisión humana consciente y rigurosa.

  • UNICEF exige frenar con leyes abuso infantil creado con Inteligencia Artificial

    UNICEF exige frenar con leyes abuso infantil creado con Inteligencia Artificial

    El Fondo de las Naciones Unidas para la Infancia (UNICEF) advirtió que los ‘deepfakes’ sexualizando a menores, creados mediante Inteligencia Artificial, crecen sin control ante vacíos legales globales, mientras algunos países comienzan a criminalizar esta nueva forma de abuso digital.

    En medio del acelerado avance tecnológico, la alerta de UNICEF sobre el abuso infantil generado con Inteligencia Artificial expone una nueva frontera de delito digital. Las imágenes y videos, denominados deepfakes que sexualizan a menores ya no son casos aislados, sino una práctica en expansión que aprovecha la falta de regulación para operar con impunidad.

    Aunque las imágenes sean creadas por algoritmos, el daño recae sobre niñas y niños cuya identidad es manipulada, difundida y consumida en entornos digitales que operan con impunidad.

    El reciente anuncio de Gran Bretaña para criminalizar estas herramientas, marca un avance significativo, pero también evidencia el rezago del resto del mundo. En muchos países, la ausencia de leyes específicas permite que este material circule sin consecuencias, consolidando un mercado ilegal en crecimiento.

    Las empresas que impulsan modelos de IA cada vez más sofisticados suelen escudarse en la neutralidad de la herramienta, ignorando que toda innovación sin controles adecuados da entrada a usos criminales. 

    La insistencia de la UNICEF a la actualización del régimen jurídico expone una verdad: los estados siguen legislando con mentalidad antigua frente a delitos digitales que evolucionan constantemente.  La infancia, una vez más, queda atrapada en esa barrera entre progreso tecnológico y protección institucional.

    Bajo este contexto, penalizar el abuso infantil generado por la IA no es una opción, sino una obligación urgente. No se trata de censurar la innovación, más bien, se trata de establecer límites claros donde los derechos de los menores estén por encima de cualquier avance tecnológico. 

    La UNICEF insiste en que la Inteligencia Artificial debe ser una herramienta de desarrollo y no un sistema de explotación. Asimismo, advierte que, sin regulación firme y cooperación global, la tecnología seguirá siendo utilizada para vulnerar a los más pequeños, mientras la justicia queda rezagada frente a una amenaza digital que no deja de crecer.