Las empresas se apresuran a aprovechar las ventajas de la IA generativa, pero las encuestas revelan que esto conlleva riesgos.
Según recientes datos de BlackBerryun asombroso 75% de las empresas están prohibiendo o contemplando la posibilidad de restringir el uso de herramientas como ChatGPT y otras plataformas de IA generativa.
La investigación indica que el 61% de las organizaciones que contemplan esta posibilidad creen que las restricciones podrían ser permanentes o duraderas.
Participaron 2.000 responsables de TI de Estados Unidos, Reino Unido, Canadá, Alemania, Francia, Países Bajos, Japón y Australia.
Los ejecutivos citaron preocupaciones en torno a la seguridad de los datos, la privacidad y el daño potencial a la reputación de la marca.
Una clara mayoría (80%) consideró que era prerrogativa de la organización permitir o denegar qué aplicaciones utilizan los empleados para trabajar, y 74% también opinó que las prohibiciones absolutas podrían ser una extralimitación.
También hubo resultados positivos. Alrededor de 55% reconocen la mejora de la eficiencia de la IA, 52% creen en su poder para fomentar la innovación y 51% consideran que puede aumentar la creatividad. Otro 81% vio su uso potencial para reforzar las defensas de ciberseguridad.
El Gobierno de EE.UU. anunció recientemente un reto de ciberseguridad diseñar aplicaciones de IA para reforzar la seguridad nacional.
El Director de Tecnología de BlackBerry, Shishir Singh, comentó al respecto: "Prohibir las aplicaciones de IA generativa en el lugar de trabajo puede significar la anulación de una gran cantidad de beneficios empresariales potenciales."
Y añadió: "A medida que las plataformas maduren y la normativa entre en vigor, podría introducirse flexibilidad en las políticas organizativas. La clave estará en disponer de las herramientas adecuadas para la visibilidad, supervisión y gestión de las aplicaciones utilizadas en el lugar de trabajo."
Un estudio de Gartner destaca riesgos similares relacionados con la IA para las empresas
Un reciente Encuesta de Gartner de 249 altos ejecutivos reveló conclusiones similares a las de la investigación de BlackBerry, destacando las preocupaciones en torno a la seguridad, la propiedad intelectual y la excesiva dependencia de la tecnología de terceros.
- Viabilidad de terceros (67%): Los ejecutivos mencionaron su preocupación por la estabilidad o fiabilidad de los socios o proveedores externos de IA. Si estos terceros se enfrentan a retos, podría tener efectos en cascada en las organizaciones que dependen de ellos.
- Disponibilidad de IA generativa masiva (66%): La proliferación de herramientas de IA generativa suscita inquietudes en torno a la propiedad intelectual, la privacidad y la ciberseguridad.
- Incertidumbre en la planificación financiera (62%): Las organizaciones pueden enfrentarse a retos en sus procesos de planificación financiera causados por las cambiantes condiciones económicas, los cambios normativos o la volatilidad del mercado.
- Riesgo de concentración de nubes (62%): A medida que las empresas confían cada vez más en las soluciones basadas en la nube, aumenta el riesgo de depender demasiado de un único proveedor.
- Tensiones comerciales en China (56%): En curso tensiones comerciales con China insinúan posibles perturbaciones del comercio internacional, que afectan a las cadenas de suministro, los aranceles y la estabilidad de los mercados.
Ran Xu, director de investigación de la práctica de riesgos y auditoría de Gartner, destacó que la IA generativa se disparó en su encuesta trimestral sobre riesgos.
Xu declaró: "Esto refleja tanto el rápido crecimiento de la concienciación pública y el uso de herramientas de IA generativa, como la amplitud de casos de uso potencial y, por tanto, los riesgos potenciales que estas herramientas engendran."
Las herramientas de IA siguen siendo desarrolladas predominantemente por el mismo puñado de empresas, lo que significa que las empresas que crean flujos de trabajo en torno a ellas son vulnerables a las fluctuaciones de rendimiento en un mercado de baja competencia. Esto queda patente en los recientes debates en torno a la calidad de los resultados de GPT-4, que ha supuestamente declinó en los últimos meses.
OpenAI admitió que el rendimiento había bajado en algunas tareas, pero aún no ha revelado los detalles técnicos del motivo.
Las fluctuaciones en el rendimiento de la IA son malas noticias para las empresas que crean flujos de trabajo críticos para el negocio en torno a modelos que no controlan.