
La inteligencia artificial generativa está revolucionando el marco empresarial, tanto por la forma de operar de las empresas, como de los empleados. Herramientas como ChatGPT prometen incrementar la productividad mediante la automatización de tareas y la entrega rápida de respuestas, lo que beneficia a todos, empresarios y trabajadores. Sin embargo, también plantean importantes desafíos en materia de seguridad, ética y cumplimiento normativo. En este artículo expondré por qué considero crucial integrar estas tecnologías de manera responsable y, sobre todo, cómo hacerlo para evitar riesgos innecesarios.
Los riesgos: cómo comprometen a las empresas
Uno de los mayores peligros de herramientas como ChatGPT es la filtración de información confidencial. Muchos empleados, sin plena conciencia de las implicaciones, introducen datos sensibles en estas plataformas, exponiendo información comprometida de la propia empresa o incluso de clientes de la compañía o de cualquier otra parte interesada. Este comportamiento puede representar para las empresas incumplimientos de normativas como el Reglamento General de Protección de Datos (RGPD) o normas equiparables, así como poner en riesgo los sistemas de gestión de la seguridad de la información, lo que podría traducirse en sanciones económicas y daños reputacionales severos.
También existe el riesgo de que las respuestas generadas contengan errores, sesgos o información desactualizada. Esto podría llevar a adoptar decisiones equivocadas, como informar mal a un cliente o basar estrategias empresariales en datos incorrectos. Las consecuencias pueden ser graves, especialmente en sectores como el legal o el financiero.
Ejemplos prácticos: lo que ya está ocurriendo
En Estados Unidos, un abogado confió en respuestas generadas por ChatGPT para sustentar una demanda contra una aerolínea. Las sentencias citadas por la herramienta resultaron ser ficticias, exponiendo al abogado a sanciones por responsabilidad profesional.
En España, el Tribunal Constitucional ya ha advertido que los errores derivados del uso de herramientas de IA podrán ser sancionados en el ámbito legal. Estos casos ilustran la necesidad de supervisar y validar cuidadosamente cualquier información generada por inteligencia artificial.
Marco regulatorio
Europa se ha posicionado como líder a nivel mundial desarrollando la primera Ley de IA- Ley de Inteligencia Artificial (Reglamento UE 2024/1689), que aborda los riesgos del uso de esta tecnología. Este Reglamento, en vigor desde el pasado mes de agosto de 2024, será plenamente aplicable en dos años. Esta normativa busca garantizar que la IA se utilice de forma responsable, segura y ética, protegiendo los derechos fundamentales de las personas. Además, la ley persigue reducir las cargas administrativas para las pequeñas y medianas empresas, clasificando los sistemas de IA según el nivel de riesgo. Así, no se sobrecarga a las empresas con normativas excesivas para sistemas de bajo riesgo, pero se establecen reglas claras para aquellos que realmente pueden tener un impacto en la seguridad o derechos de las personas.
Entre los aspectos más positivos de esta norma destacaría la prohibición de prácticas invasivas como la identificación biométrica remota en situaciones no justificadas, ya que la privacidad es un tema clave en la era digital y la exigencia de transparencia en el uso de IA, como en el caso de los chatbots, para que los usuarios sepan cuándo están interactuando con una máquina y puedan tomar decisiones informadas.
Como expertos, vemos esta ley como un paso crucial para equilibrar la innovación con la protección de derechos fundamentales. Sin embargo, también plantea interrogantes: ¿están las empresas preparadas para cumplir con estas exigencias? Y más aún, ¿cómo pueden adaptarse mientras esperan su implementación oficial?
La clave será empezar a adoptar buenas prácticas desde ahora, alineando las políticas internas con los principios de esta normativa antes de que sea obligatorio. Esto no solo minimizará riesgos, sino que también posicionará a las empresas como pioneras en cumplimiento y responsabilidad.
Buenas prácticas para un uso seguro
Para aprovechar los beneficios de ChatGPT minimizando los riesgos, las empresas, como mínimo, deberían seguir estas estrategias:
- Formación del personal: Capacitar a los empleados para identificar riesgos y utilizar herramientas de IA de manera segura. Esto incluye evitar compartir datos confidenciales y validar la información generada.
- Políticas claras: Definir directrices internas que especifiquen cómo y en qué contextos se pueden usar estas herramientas. Asegúrense de que estas políticas estén alineadas con las normativas locales e internacionales.
- Supervisión activa: Revisar y verificar todas las respuestas generadas por la IA antes de utilizarlas en decisiones críticas o comunicarlas a terceros.
Por tanto, podemos concluir que el potencial transformador de ChatGPT es innegable, pero su éxito depende de cómo se utilice. Resulta esencial que las empresas adopten correctamente unas prácticas para su uso seguro con el fin de convertirlo en una ventaja estratégica, sostenible y confiable. Y los despachos de abogados no son una excepción.
ElDerecho.com no comparte necesariamente ni se responsabiliza de las opiniones expresadas por los autores o colaboradores de esta publicación