Las empresas ante el uso de herramientas de IA no supervisadas
24/01/2025CATEGORíA: General MARCA: Microsoft
El 77% de los usuarios de IA generativa introduce sus propias herramientas en el entorno laboral, a menudo sin supervisión del área de tecnología, lo que incrementa los riesgos de seguridad y cumplimiento normativo.
El último Índice de Tendencias Laborales, elaborado por Microsoft y LinkedIn a partir de una encuesta a 31.000 personas en 31 países, refleja que, ante los beneficios que aporta la Inteligencia Artificial (IA) generativa, muchos empleados no esperan a que las empresas desplieguen estas soluciones y deciden utilizar sus propias herramientas de IA. En ausencia de una estrategia oficial de IA, el 77% de los empleados encuestados por Microsoft y LinkedIn introduce sus propias herramientas de IA en el entorno laboral, incluso en aquellas organizaciones que sí cuentan con un plan de adopción.
Foto de Steve Johnson en Unsplash
Esta situación genera riesgos en cuanto a la privacidad y la protección de los datos corporativos, que pueden acabar siendo procesados e incorporados por servicios de IA, especialmente aquellos no orientados al mercado empresarial y que no garantizan un tratamiento confidencial de la información.
IA: preocupaciones y retos
Más del 80% de los directivos considera que el potencial de fuga de datos confidenciales es su principal preocupación. Existe una necesidad real de que las organizaciones mejoren la visibilidad y el control de su activo más crítico: los datos.
A pesar de ello, muchas empresas desconocen el uso de aplicaciones de IA por parte de sus empleados. Esto incluye información sobre qué aplicaciones se utilizan, quiénes las usan y qué tipos de datos se comparten o generan.
La falta de visibilidad puede derivar en desafíos de seguridad y cumplimiento que, a su vez, pueden provocar incidentes como:
- Fugas de datos: Los usuarios pueden revelar involuntariamente datos confidenciales, como información personal de clientes, a aplicaciones de IA que incorporen esa información a su conocimiento, haciéndola pública de facto.
- Uso compartido de datos: Los usuarios podrían intentar acceder a información sensible a través de aplicaciones de IA. Sin controles de seguridad adecuados, estas aplicaciones podrían obtener acceso, resumir o crear contenido basado en datos confidenciales, incrementando el riesgo de sobreexposición.
- Uso indebido: Con la facilidad de creación de contenido mediante IA generativa, los usuarios pueden generar contenido poco ético o de alto riesgo, como noticias falsas o información fraudulenta. Es esencial que las organizaciones regulen el uso de aplicaciones de IA para garantizar el cumplimiento de códigos de conducta y requisitos normativos.
Fuente: https://news.microsoft.com
