Precisamente, Del Castillo se refirió al actual debate que tiene lugar en el seno de la UE de la que puede terminar siendo la primera regulación del mundo en esta materia. Aseguró que “el desarrollo tecnológico de la IA afecta profundamente a la sociedad y a todos los sectores económicos”, por lo que, “el debate de cómo regularla está teniendo lugar en diferentes países e instituciones internacionales, no sólo en Europa”. En este sentido, explicó que el Reglamento europeo en el que se trabaja actualmente “persigue un objetivo muy específico: proteger la salud, la seguridad y los derechos fundamentales de las personas, generando una mayor confianza en la Inteligencia Artificial, lo que a su vez potenciaría su desarrollo e implementación”. Y concluyó que “ser los primeros en regular esta materia puede posicionar y ayudar a las empresas que operan en la UE a que tengan más instrumentos para desarrollarse”.
Por su parte, Eduardo Soler Tappa, socio director de Herbert Smith Freehills, aseguró que “la IA está teniendo un crecimiento exponencial y recuerda en sus orígenes a lo que pudo ser el nacimiento del propio internet, logrando en poco tiempo una gran implantación doméstica”, lo que explica “los grandes retos y desafíos a los que nos enfrentamos”. Y es que, los expertos coincidieron en que, si bien se trata de herramientas de enorme utilidad en la realización de tareas sencillas, repetitivas y "mecanizables", debido a la gran voracidad en datos que el aprendizaje de estos modelos requiere, son varios los riesgos de esta tecnología, que se extienden a cuestiones laborales y contractuales, de privacidad e identidad, derechos de autor o marcas, entre otros. De este modo, las empresas que los utilicen deberán protegerse frente a tales riesgos mediante pautas de gobernanza completas y claras.
En este sentido, Iria Calviño, socia, y Miguel Ángel Barroso, asociado sénior del despacho, analizaron las bases éticas y regulatorias de la IA creativa. Explicaron que “estamos ante un desafío y una oportunidad, y lo determinante es utilizarla teniendo en cuenta los límites legales y éticos de nuestra sociedad”. Y recordaron que “el ordenamiento jurídico de la UE ya recoge los principios éticos que nos regulan y vinculan - Carta de Derechos Fundamentales- y que también deben regir el marco ético de la IA". De ahí que, en su opinión, “muchos de los debates que parecen que plantean estas nuevas herramientas ya están aterrizados en el mundo jurídico”. Y añadieron que los principios éticos aplicables pueden concentrarse en cuatro grandes bloques relacionados con los derechos fundamentales: el respeto a la autonomía humana, la equidad e igualdad, la predicción del daño, y, finalmente, la transparencia.
Políticas corporativas
En la misma línea, Pablo García Mexía, director de Derecho Digital de Herbert Smith Freehills, sostuvo que, a través de la IA generativa, “vamos a crear herramientas tremendamente útiles, pero que también generan muchos riesgos que debemos planificar y regular, sin esperar a que su impacto en nuestras organizaciones sea tan grande que nos arrolle”. Por ello, dijo, “es fundamental contar con una política interna en las empresas que desarrolle el modo en el que se usen estas herramientas”. Y planteó una serie de principios que se deben respetar como que se construyan pautas de uso y formación de las personas; que se trate una política concreta y adaptada a las necesidades de la empresa; que cuente una estructura sencilla y clara; o que sea una política orientada a la seguridad, basada en la transparencia y en las normas globales éticas internacionales. También recomendó a las empresas que se plantee como una política propia, separada de las demás políticas que existan en el seno de la organización, dada su importancia y riesgos. El objetivo, apostilló, es “que las compañías puedan usar la IA de un modo eficaz, seguro y eficiente”. Y apeló a la generación de herramientas de IA propias dentro de las compañías “porque hará más fácil el control de riesgos al permitir encastrar los principios deseados desde el inicio de su uso”. Ahondando en este asunto, Ana Garmendia, asociada de la firma, aludió a los contenidos que debe fijar y desarrollar esta política corporativa, como a quién va dirigida, qué riesgos existen en el uso de la IA, qué conducta se espera de quienes la utilizan, cuándo hay incumplimientos y, en estos casos, cuáles son las consecuencias o a quién se deben reportar.
Finalmente, intervino Oriol Pujol, Catedrático de Ciencias de la Computación e Inteligencia Artificial y decano de la Facultad de Matemáticas e Informática de la Universidad de Barcelona, que reparó en la importancia de que el aprendizaje automático de estas herramientas (que mejoran su rendimiento a partir de la experiencia) sea un “aprendizaje supervisado”. A este respecto, señaló que la IA aprende de humanos, con competencias inferenciales pero, además, con competencias referenciales, es decir, que conectan lo que la herramienta arroja con el mundo real. Y apuntó al riesgo de que “si se genera demasiado contenido con estas herramientas de manera no regulada puede que esas últimas competencias se pierdan en el tiempo”. Asimismo, añadió otros riesgos existentes, a su juicio, de la IA generativa, como el desconocimiento del propósito implícito de los modelos del lenguaje, que puede dar lugar a estereotipos o sesgos sociales; el uso incorrecto de la herramienta suponiendo posibles problemas de seguridad y privacidad o de Propiedad Intelectual; el impacto medioambiental; o la centralización del poder porque, concluyó, “sólo unas pocas empresas tienen el control sobre estas herramientas de IA”.