Desde su lanzamiento en noviembre de 2022, ChatGPT, la Inteligencia Artificial Generativa desarrollada por OpenAI, se ha integrado en una variedad de industrias y aspectos de la vida diaria y laboral. Esta tecnología está diseñada para responder preguntas como un chatbot, generar texto, asistir en la redacción, traducir idiomas, entre otras funciones.
Según un estudio comisionado por Microsoft a IDC, en Latinoamérica, el 55% de las grandes empresas de la región ya han implementado herramientas específicas de inteligencia artificial en diversas áreas de su negocio. En Chile, el 74% de las organizaciones encuestadas planea incrementar su presupuesto destinado a la inteligencia artificial en los próximos 2 años. Además, el 61% ya ha reajustado sus gastos en ciertas áreas o proyectos, o tienen planes de hacerlo en el mismo periodo, con el objetivo de reasignar estos recursos a iniciativas de IA.
Estos datos dan cuenta de la rápida adopción que esta tecnología ha tenido en los últimos años. “La inteligencia artificial generativa incrementará la productividad en sectores que requieren tareas repetitivas y de análisis de datos, pero también presentará desafíos al automatizar puestos de trabajo que realizan tareas predecibles o administrativas. Esto podría afectar a sectores como finanzas, contabilidad y administración pública, donde la automatización puede desplazar ciertas funciones”, indica Rodrigo Garay, Country Manager de Gi Group Holding, multinacional de recursos humanos.
A pesar de sus ventajas, algunos expertos advierten sobre la necesidad de ser cauteloso al asignar tareas a estas herramientas. "Al utilizar ChatGPT u otras IAs generativas, es fundamental recordar que están diseñadas para asistir, no para reemplazar. Su propósito es optimizar tareas. Estas tecnologías generan respuestas basadas en estadísticas y no siempre garantizan precisión, ya que utilizan información de diversas fuentes", señala Carlos Pacheco, experto en IA de Matisi Consulting, dedicada a analítica de datos y business intelligence.
Uso responsable
A medida que más empresas integran la IA en sus actividades cotidianas, surge la necesidad de entender los límites y riesgos inherentes a su uso. En ese sentido, Luz María García, Gerenta General de la Asociación Chilena de Empresas de Tecnologías de la Información (ACTI A.G.), señala que “siendo una excelente herramienta para generar texto y mantener conversaciones, esta no comprende contextos específicos o complejos, siendo muy factible que pueda llevar a errores en tareas que requieren conocimientos profundos. No es seguro para manejar datos sensibles o confidenciales porque no da la garantía de privacidad o seguridad de la información”.
“No es recomendable utilizarla para manejar datos sensibles o confidenciales, ya que no puede garantizar la seguridad o privacidad de la información. Además, no debe tomar decisiones críticas que involucren juicios éticos o legales, ya que carece de la intuición y el entendimiento humano necesarios para abordar adecuadamente estas situaciones”.
Francisco Rojas, director ejecutivo de Accenture
Para manejar datos sensibles de manera segura, es fundamental utilizar una IA diseñada específicamente para proteger dicha información, señala Pacheco. El experto explica que esto significa que la IA debe configurarse para ocultar datos, y los servicios en la nube utilizados tienen que estar adecuadamente aislados en servidores locales controlados por la organización. “Las empresas deben ser especialmente cautelosas al integrar estas herramientas en sus operaciones diarias y considerar el desarrollo o adquisición de IAs personalizadas que cumplan con los estándares de seguridad necesarios”, recomendó el experto.
Las acciones que pueden tomar las empresas
Las empresas deben capacitar a sus empleados en el uso responsable de la IA para evitar errores y maximizar su eficacia. "Es importante para prevenir errores y optimizar el uso de esta herramienta. Además, los trabajadores deben comprender que ChatGPT no siempre capta contextos específicos ni garantiza la precisión en las tareas. Es fundamental educarlos sobre el uso responsable y seguro de esta tecnología, evitando la divulgación de datos confidenciales", advirtió García.
Finalmente, Carlos Pacheco, recomendó algunas acciones para que las empresas puedan hacer uso de la IA generativa sin ver afectados sus procesos:
No compartir información sensible: Es indispensable evitar subir información delicada a una IA debido a los riesgos de filtración de datos. La protección de datos es esencial para mantener la privacidad y seguridad en la empresa.
Verificar la información: Las respuestas de una IA como ChatGPT se basan en datos estadísticos y no siempre en la información más precisa. Es importante verificar la exactitud de las respuestas antes de actuar con base en ellas.
Evaluar el grado de certeza: Las IA comerciales tienden a responder con una aparente certeza absoluta, aunque esto no siempre refleja la realidad. Las respuestas deben ser tomadas con cautela, especialmente en decisiones críticas.
Usar IA personalizada cuando sea posible: En entornos laborales específicos, una IA personalizada puede ofrecer respuestas más precisas y alineadas con las necesidades del negocio.