Etiqueta: Claude

  • Pentágono presiona a Anthropic por acceso total a su IA

    Pentágono presiona a Anthropic por acceso total a su IA

    El Departamento de Defensa de EUA exige acceso irrestricto a los modelos de la empresa Anthropic, incluida su herramienta Claude, y advierte con excluirla de contratos o aplicar la Ley de Producción de Defensa si no coopera. La firma tecnológica se resiste por razones éticas y de seguridad.

    El Pentágono elevó la presión contra Anthropic, una de las startups más relevantes en inteligencia artificial, al exigir acceso total a sus modelos para uso militar, incluso en escenarios clasificados. El secretario de Defensa,Pentágono, advirtió que, si la empresa no acepta, podría ser excluida de la cadena de suministro del Gobierno de EUA.

    La otra amenaza es aún más contundente: invocar la Ley de Producción de Defensa, una norma de la Guerra Fría que permite al presidente ordenar a empresas privadas priorizar contratos por razones de seguridad nacional. De acuerdo con reportes citados por medios internacionales, el ultimátum fija un plazo inmediato para que la compañía ceda.

    Anthropic, fundada en 2021 por exintegrantes de OpenAI, ha rechazado permitir el uso irrestricto de su chatbot Claude en operaciones letales sin supervisión humana o vigilancia masiva interna, al considerar que ese tipo de aplicaciones no son responsables con la tecnología actual.

    La tensión es significativa porque la empresa ya mantiene contratos millonarios con el Departamento de Defensa. En 2025 obtuvo un acuerdo por 200 millones de dólares para desarrollar capacidades avanzadas de IA. El choque revela el nuevo campo de batalla: quién controla la inteligencia artificial en materia de seguridad nacional.

  • Anthropic acusa a compañías chinas de extraer ilegalmente su Inteligencia Artificial

    Anthropic acusa a compañías chinas de extraer ilegalmente su Inteligencia Artificial

    La empresa estadounidense de inteligencia artificial , Anthropic, señaló a tres compañías chinas de extraer ilegalmente potencial de sus chatbots mediante técnicas ilegales que permiten replicar funciones avanzadas a bajo costo.

    Las principales compañías de inteligencia artificial de Estados Unidos acusaron a empresas chinas de extraer información de forma masiva. Anthropic denunció que DeepSeek, Moonshot AI y MiniMax utilizaron su chatbot Claude para obtener funciones que no desarrollaron por sí mismas, usando un método conocido como “destilación”.

    La técnica consiste en la recopilación del potencial de un sistema avanzado para la mejora de otros modelos más pequeños y económicos. La empresa Anthropic, destacó que los laboratorios chinos llevaron a cabo alrededor de 16 millones de interacciones con Claude creando 24,000 falsas para poder lograrlo. Esto permitió evitar regulaciones y controles sobre la tecnología estadounidense de alto nivel

    Los modelos obtenidos por esta técnica ilícita podrían carecer de mecanismos de seguridad necesarios. Expertos señalaron que esto aumenta los riesgos de mal uso, desde la creación de armas biológicas hasta ciberataques. OpenAI, competencia directa de Anthropic, también ha presentado denuncias oficiales similares en Estados Unidos.

    El método ya había sido percibido durante el 2025, cuando DeepSeek lanzó un modelo económico con un rendimiento similar al de ChatGPT y otros chatbots destacados, poniendo en duda el dominio estadounidense en inteligencia artificial. 

    Anthropic exhortó a la industria y a las autoridades estadounidenses para establecer reglas que protejan la propiedad intelectual y garanticen la seguridad de los sistemas de IA frente a un reto que es considerado imposible de enfrentar de forma individual.

  • Corea del Sur: primer país en regular inteligencia artificial

    Corea del Sur: primer país en regular inteligencia artificial

    Corea del Sur se convirtió en el primer país en aplicar una ley integral para regular la inteligencia artificial, con el objetivo de equilibrar innovación, seguridad y confianza pública en esta herramienta tecnológica. 

    La Ley Básica de Inteligencia Artificial, aprobada en diciembre de 2024 y puesta en vigor en enero de 2026, obliga a empresas desarrolladoras y proveedores a informar cuándo los servicios utilizan IA generativa, a etiquetar de forma clara contenidos generados o alterados por IA, y a cumplir requisitos de transparencia y supervisión en aplicaciones de alto impacto, como salud, educación y procesos financieros. Las infracciones pueden sancionarse con multas de hasta 30 millones de wones (alrededor de 20 mil 400 dólares). 

    El marco legal surcoreano, llamado AI Basic Act, no solo regula riesgos como la desinformación o la suplantación de identidad en contenido digital, sino que también crea instituciones de supervisión y promueve el desarrollo tecnológico responsable.

    Este avance legislativo ocurre en un contexto global en el que las implicaciones psicológicas y sociales de la inteligencia artificial se han incrementado. Recientes estudios han puesto en evidencia limitaciones en la respuesta de los modelos de lenguaje generativo a situaciones de riesgo, como preguntas relacionadas con el suicidio. 

    Una investigación publicada en Psychiatric Services señaló que los chatbots más populares (ChatGPT, Claude y Gemini), suelen responder adecuadamente en casos de riesgo bajo o muy bajo, pero fallan al abordar situaciones de mayor riesgo, lo que plantea interrogantes sobre su fiabilidad en contextos sensibles.

    En los últimos años han sido reportados varios casos de suicidio vinculados a interacciones con chatbots de IA, donde adolescentes y jóvenes habrían recibido información o estímulos contraproducentes de estas interfaces.  En Estados Unidos, por ejemplo, la muerte de una adolescente de 13 años, Juliana Peralta, fue atribuida por su familia a conversaciones con un chatbot llamado Hero, desarrollado por Character.AI. De acuerdo a las demandas presentadas, Juliana comenzó a usar la aplicación y, aunque el bot mostraba empatía, también reforzó su dependencia de la IA sin activar protocolos de crisis cuando ella expresó pensamientos suicidas repetidamente. 

    Otro caso es el de Sewell Setzer, un joven de 14 años, quien desarrolló una relación emocional con un chatbot basado en el personaje Daenerys Targaryen de Game of Thrones. De acuerdo a la demanda de su madre, la IA mantuvo y alimentó una conversación que incluía temas suicidas y terminó aislándolo de sus relaciones humanas antes de su muerte en febrero de 2024. Las familias demandaron tanto a Character.AI como a Google por homicidio culposo y otros cargos, argumentando que el diseño del chatbot contribuyó a la tragedia. 

    Además, profesionales de la salud mental advierten sobre un fenómeno que algunos denominan “psicosis por IA”: episodios psicóticos en individuos desencadenados tras conversaciones prolongadas con sistemas generativos de inteligencia artificial. Aunque no es un término clínico oficial, refleja un patrón de impacto emocional atribuido directamente a contenidos o experiencias con modelos de IA, lo que suma una dimensión humana y de salud pública a los debates sobre regulación tecnológica. Estos casos subrayan la urgencia de marcos regulatorios más claros y efectivos que no sólo promuevan la innovación, sino que también mitiguen los riesgos potenciales para la salud psicológica de la población.