El uso de plataformas de inteligencia artificial como ChatGPT se ha extendido rápidamente más allá de tareas básicas y se ha convertido en una herramienta habitual para decisiones estratégicas en empresas, directorios y entre figuras públicas de alta exposición, advirtieron especialistas en riesgos digitales y gobierno corporativo.
Aunque su empleo puede optimizar procesos y generar análisis complejos, estas interacciones también pueden adquirir relevancia probatoria en investigaciones judiciales o regulatorias y, en algunos casos, convertirse en el centro de crisis mediáticas si se filtran o se viralizan.
Consultas realizadas con herramientas de IA no siempre están protegidas por el secreto profesional y pueden quedar almacenadas en dispositivos o respaldos técnicos que los sistemas forenses judiciales pueden recuperar, incluso cuando los usuarios creen haber eliminado la información.
Esto implica que una simple interacción digital —como un borrador de estrategia o un análisis sobre temas sensibles— pueda ser solicitada por un juez y valorada como parte de un expediente en investigaciones civiles, comerciales o penales.
Más allá de las implicancias legales, una filtración de este tipo de contenido puede desencadenar un daño reputacional significativo, afectando la confianza de inversores, clientes o mercados en una empresa o en la imagen pública de un CEO, director o figura de alto perfil.
Especialistas señalan que la viralización de una consulta o un borrador sensible puede generar crisis públicas que requieran gestión profesional de crisis y una respuesta coordinada que va más allá de lo jurídico.
Frente a estos escenarios, los asesores recomiendan a empresas y líderes incorporar estos riesgos en sus matrices de riesgo institucional, diseñar protocolos de uso de IA, capacitar a directivos en la gestión de interacciones con estas herramientas y coordinar esfuerzos entre áreas legales, tecnológicas y de comunicaciones.





