El uso cada vez mayor de herramientas de IA generativa (GenAI) conducirá inevitablemente a más violaciones de datos. Según una encuesta reciente de Gartner, los casos de uso de inteligencia artificial (IA) más comunes incluyen aplicaciones basadas en GenAI como Microsoft 365 Copilot y Salesforce, entre otras. Si bien estas herramientas son una excelente manera para que las empresas aumenten la productividad, también plantean un gran desafío para la seguridad de los datos.
Riesgos de los datos
Según las investigaciones, casi la totalidad de los permisos no se utilizan y más de la mitad de ellos son de alto riesgo. En principio, los derechos de acceso no utilizados y demasiado amplios suponen un problema para la seguridad de los datos.
La IA agrava la situación en gran medida. Cuando un usuario formula una pregunta a un asistente de IA, la herramienta formula una respuesta en lenguaje natural basándose en el contenido de Internet y los datos de la empresa mediante tecnología de gráficos.
Por ejemplo, Microsoft Copilot puede acceder a todos los datos a los que el usuario puede acceder, incluso si el usuario ni siquiera es consciente de que tiene acceso a ellos. En consecuencia, Copilot puede revelar con facilidad datos confidenciales de la empresa, lo que es un peligro para la seguridad.
La IA reduce las barreras para los atacantes
La IA ha hecho que los días en que los atacantes tenían que hackear los sistemas y explorar el entorno lenta y cuidadosamente sean cosa del pasado. Ahora pueden simplemente pedirle a un asistente de IA información confidencial o acceder a datos para moverse lateralmente dentro del entorno.
Los mayores desafíos que plantea la IA para la ciberseguridad son:
- Los empleados tienen acceso a demasiados datos
- Los datos confidenciales a menudo no están marcados o están marcados incorrectamente
- Desde adentro se pueden encontrar y exfiltrar datos rápidamente usando lenguaje natural
- Los atacantes pueden encontrar secretos para la escalada de privilegios y el movimiento lateral
- Es imposible establecer manualmente el nivel correcto de acceso
- La GenAI genera rápidamente nuevos datos confidenciales
Estos desafíos de seguridad de datos no son nuevos. Sin embargo, la velocidad y la facilidad con que la IA puede exponer información a los atacantes hace que sea más fácil que nunca explotarla.
Medidas de protección contra el riesgo de la IA
Antes de utilizar herramientas de GenAI como Copilot u otras, los directores de seguridad de la información deben saber dónde se encuentran todos sus datos confidenciales. También deben poder analizar amenazas y riesgos, cerrar brechas de seguridad y corregir errores de configuración de manera eficiente.
Solo cuando se tenga un control firme de la seguridad de los datos en el entorno y se hayan implementado los procesos adecuados, la empresa estará preparada para introducir asistentes de IA.
Incluso después de la instalación, los responsables deben supervisar de forma continua las tres áreas siguientes, de acuerdo con especialistas en ciberseguridad:
- Derechos de acceso: garantizar que los permisos de los empleados tengan el alcance adecuado y que el acceso a la herramienta de IA coincida con esos permisos.
- Clasificación: en cuanto los jefes de seguridad de la información sepan qué datos confidenciales tiene la empresa, pueden etiquetarlos para aplicar eficazmente las reglas de prevención de pérdida de datos
- Actividad humana: supervisar el uso de los asistentes de IA y detectar cualquier comportamiento sospechoso. Analizar las indicaciones y los archivos a los que se accede es fundamental para evitar el uso indebido de la IA
Puedes seguir leyendo: Hyundai y Samsung presentan la tecnología privada 5G RedCap para la fabricación inteligente
Nuestras redes sociales, únete y sé parte de la tecnología