Empresas de IA incumplen estándares de seguridad, según informe

Un informe titulado Winter AI Safety Index 2025 y publicado por el Future of Life Institute (FLI) reveló que las principales empresas de inteligencia artificial (IA) están incumpliendo los estándares globales de seguridad.

Según el documento, estas prácticas inseguras podrían traer como consecuencia grandes riesgos para la sociedad. Por ejemplo, los ciberataques facilitados por sistemas de IA que cada vez son más sofisticados.

Cabe destacar que las compañías de IA han recibido acusaciones y demandas por los efectos de sus chatbots en la salud mental. Recientemente, OpenAI recibió una demanda por el suicidio de un joven que interactuó con ChatGPT.

Empresas de IA no cumplen estándares de seguridad 

El informe tomó como muestra de estudio a ocho grandes compañías. Estas son: Anthropic, OpenAI, Google DeepMind, xAI y Meta, con sede en Estados Unidos, y DeepSeek, Alibaba Cloud y Z.ai, de China. 

Por otra parte, la investigación se centró en seis áreas críticas: evaluación de riesgos, daños actuales, marcos de seguridad, gobernanza y rendición de cuentas, seguridad existencial y compartición de información.

De acuerdo con los hallazgos de la investigación, ninguna de estas empresas tecnológicas cuenta con un plan concreto y demostrable que asegure que los humanos tendrán el control sobre los sistemas de IA más avanzados.

En este sentido, el FLI resaltó que hacen falta estrategias confiables para impedir perder el dominio sobre estas tecnologías o que se usen de forma peligrosa. Con el auge de estas nuevas tecnologías, también crece la incertidumbre.

Esta preocupación se agudiza a medida que la IA avanza hacia la Inteligencia Artificial General (AGI) y la superinteligencia. Según expertos, ambos sistemas tienen potencial para superar las capacidades intelectuales del ser humano.

Analistas independientes señalaron que aunque existen algunos avances, las medidas de seguridad siguen siendo insuficientes. Entre los riesgos destaca la falta de mecanismos para evitar el mal uso de la IA y la posible pérdida de control sobre sistemas cada vez más autónomos.

La pregunta a las empresas sobre sus planes para controlar la AGI: ninguna tenía un plan”, comentó Max Tegmark, presidente del FLI y profesor en el MIT. Además, señaló la falta de regulación de la IA en EEUU.

Por otra parte, indicó que las tres principales empresas analizadas, OpenAI, Google DeepMind y Anthropic, han protagonizado algunas polémicas. Estas están relacionadas con suicidios infantiles, daños psicológicos y ataques digitales.

Debilidades y avances

En el caso de Anthropic, OpenAI y Google DeepMind, el informe reconoció la “transparencia relativa y la inversión en investigación técnica” de estas empresas. Sin embargo, cada una de ellas recibió críticas.

Por ejemplo, los expertos señalaron que el entrenamiento basado en interacciones de usuarios en Anthropic debilita la privacidad. Respecto a OpenAI, se le criticó por la falta de seguridad y supervisión independiente. 

Por su parte, Google DeepMind mejoró la seguridad, pero se cuestionó la independencia de sus evaluadores externos (a quienes paga la empresa). De modo tal que según el informe, ninguna de las grandes empresas de IA está cumpliendo en su totalidad con los estándares de seguridad.

Información de Infobae / redacción Mente Digital

No dejes de leer: Estudio determinó cómo los chatbots violan códigos de la terapia psicológica


Nuestras redes sociales, únete y sé parte de la tecnología

Instagram

Telegram

YouTube

X (Twitter) 

TikTok

 

Artículos recientes