INTERNET

El reto de la responsabilidad de las plataformas de Internet

Tribuna
Juan-Diego-Polo_EDEIMA20170811_0004_1.png

El siglo XXI comenzó con una prohibición muy curiosa en Grecia. La polémica ley 3037 indicaba que estaban prohibidos todos los juegos de azar, ya sean mecánicos o electrónicos, y, por tanto, consideraba ilegal el ocio digital y los videojuegos. El resultado fue un desastre: empresarios de cibercafés arrestados, establecimientos cerrados y ordenadores confiscados… en 2012 rectificaron parcialmente: los juegos electrónicos volvían a ser legales en todo el país, siempre y cuando no exista "beneficio económico". Estaba redactada de tal forma, que prohibía hasta el uso de una Game Boy por un turista… rozaba el ridículo.

Pero no es la única prohibición extraña. En Malasia no se podía vestir de amarillo, en Rumanía se prohibió el Scrabble, en Dinamarca los Alimentos Enriquecidos con vitaminas y minerales… Prohibir es la primera reacción del ser humano para evitar “males mayores”. Eliminar la amenaza atacando el primer obstáculo, sin pensar bien en cómo está implicado con el problema real es una acción extremadamente presente en la historia de la humanidad, y la era digital no está libre de ello.

A menudo escuchamos cómo algunas instituciones persiguen a plataformas digitales que alojan el contenido compartido por sus usuarios, y ése es un tema extremadamente polémico que debemos tratar con detalle. Pero, antes de hacerlo, imaginemos el siguiente escenario:

Existe un gran tablón de anuncios en la Universidad. Allí es posible encontrar mensajes de todo tipo, desde ofertas de clases particulares a venta de libros o pisos para estudiantes.

Un buen día, aparece una nota escrita a mano, sin firma, un texto en el que se ofende de forma agresiva a un grupo específico de estudiantes.

El grupo afectado reacciona y decide denunciarlo a la policía. Los agentes, después de registrar los detalles, piensan en cómo actuar. Tienen dos grandes tareas:

a) Buscar al autor responsable: verificar las cámaras de seguridad de la zona, entrevistar a los testigos, analizar el texto, e incluso el tipo de letra. Si el sujeto repitiera este acto entraría se agravaría por su reincidencia.

b) Retirar el mensaje infractor: pedir al grupo afectado que quite la nota, o solicitárselo a la Universidad. Si se repite la historia, deberán volver a quitarla una y otra vez.

Lo que sin duda parecería desproporcionado y causa de una nuevas injusticia sería entender que quien aloja el tablón es el responsable:

a) Acusar a la Universidad de difundir mensajes de odio, antes incluso de que tengan constancia de la naturaleza de estos mensajes y, en consecuencia, pueda evaluar la situación.

b) Prohibir los tablones de anuncios o exigir a la Universidad que evite el que ningún mensaje conflictivo pueda llegar a ser ser expuesto en el Campus.

Está claro que estas acciones son ridículas, impracticables, pero si las aplicamos al mundo digital, veremos que es más común de lo que parece.

¿Puede una plataforma como YouTube, Twitter o Facebook ser responsable por el contenido que publican sus usuarios?

YouTube es la principal plataforma de distribución de vídeos en Internet, como indican sus estadísticas: cada día se ven allí 1.000 millones de horas de vídeo, y se suben más de 400 horas cada minuto, disponibles para que 1.500 millones de usuarios puedan disfrutar de ello. Son números impresionantes, y no distintos a los de otras redes sociales en su sector, como Instagram, Twitter o, a escala nacional, fue Tuenti o es Wallapop.

Una plataforma es un lugar que ofrece la posibilidad de publicar contenido de todo tipo sin un control o moderación previa, y que facilita la denuncia de material para ser retirado por múltiples causas, por ejemplo por violaciones de derechos de autor. Las plataformas ayudan a millones de personas a expresarse, a emitir su opinión, a presentar su talento al mundo, a consumir contenidos, acceder a conocimiento, tomar parte en debates e incluso participar en los procesos democráticos. Eso es posible porque existe libertad de hacerlo –de la misma manera que podemos hablar en voz alta en las escaleras del metro y dejar que otras personas nos escuchen si así lo desean– y tecnología que hace posible y gratuito eso insoñable hasta nuestra generación.

Millones de personas han encontrado empleo gracias a LinkedIn, Monster o Infoempleo, otros millones han mostrado su talento artístico o científico en YouTube –han cantado, explicado conceptos de física avanzada, dado cursos de robótica, grabado experimentos caseros, han discutido sobre historia, se han maquillado, han criticado… ¡hay vídeos de ciencias con más de mil millones de reproducciones anuales en Europa!– y, por supuesto, hay quien ha insultado a otros, enviado mensajes de odio o querido timar a otras personas con información falsa.

Así somos, es un reflejo de la humanidad, no hay cómo cambiarlo.

Por mucho que cambien las políticas, las leyes o la educación, siempre existirán personas que gritarán mensajes de odio en las escaleras del metro, quien afirmará algo falso en los programas de TV, siempre existirá el spam –como el email ofreciendo Viagra o el panfleto de comida china en nuestro buzón-–, los intentos de timo o los contenidos divulgados sin los correspondientes permisos para ello.

Así es el ser humano. Aceptémoslo.

Lo que no podemos hacer, nunca, es bloquear los canales de comunicación, prohibir hablar en el metro por miedo a que alguien insulte a otro, censurar programas de TV porque pueden sostener hechos falsos, o pedir a una plataforma tecnológica que tenga la responsabilidad sobre lo que los usuarios compartan como si fuera un editor para evitar que se publique algo inadecuado. 

¿Qué pueden hacer las plataformas?

La tecnología existe para facilitar nuestra vida, para que podamos encontrar nuevas oportunidades, para evitar la realización de trabajos monótonos, aburridos y peligrosos, y para ofrecer recursos que nos permiten vivir con más seguridad y bienestar.

Hasta ahora hemos tenido una regla jurídica que ha hecho eso posible con garantías para todos, el principio de Notice and takedown de la DMCA americana, en virtud de la cual los usuarios o titulares de derechos pueden denunciar cualquier contenido y las plataformas tienen la obligación de retirarlo en caso de ser efectivamente ilícito. En Europa hemos adaptado ese principio a través de la Directiva 2000/31/CE de Comercio Electrónico -traspuesta en la Ley 34/2002 de Servicios de la Sociedad de la Información-, que exige el previo conocimiento efectivo de que un contenido es ilícito para que la plataforma de alojamiento deba retirarlo diligentemente (art. 16), porque de otro modo sí podría llegar a ser responsable.

La autorregulación en algunas plataformas ha ido más allá con sistemas de inteligencia artificial capaces de analizar millones de datos por segundo para encontrar coincidencias o tendencias; tenemos disponibles hoy en día muchos sistemas que identifican palabras pronunciadas, canciones, textos y otros elementos digitales que se publican en Internet. Gracias a estos recursos es posible identificar contenido específico en un vídeo, pero aún falta mucho para que podamos garantizar herramientas tecnológicas de filtrado de contenido que, aunque parezca un disparate, la propuesta de Directiva de Derechos de Autor de la Comisión Europea querría imponer por ley. El riesgo no es solo de matar la innovación de nacientes plataformas europeas sino que la legislación nos empuja a un “inquisidor digital”.

Twitter, por ejemplo, podría identificar insultos en un vídeo y bloquear su publicación, pero no todos los insultos son ofensivos, ya que muchas veces no lo son en su contexto. La libertad de expresión sería pisoteada. Determinar si un vídeo en una red social es un mensaje de odio que merece ser censurado es tan complicado como saber si una obra protegida tiene permiso para ser emitida por un canal, en un lugar y momento concreto, pero sobre todo no es una tarea que las máquinas puedan hacer hoy en día y no creo que tampoco deban: sigue siendo necesaria la acción humana en aquello que requiera discernir, como un juez hace ponderando distintos derechos e intereses en juego y no realiza una acción mecánica y acrítica de aplicación de la ley ante un supuesto de hecho.

Las plataformas deben incluir herramientas ágiles de denuncia, crear un proceso eficaz de eliminación de contenido ilegítimo (una palabra llena de matices), ayudar a identificar usuarios que publican ciertos contenidos inadmisibles… pero nunca puede ser considerado responsable por la eventual ilegalidad cometida por un tercero a través de un recurso tecnológico neutral y pasivo creado para ayudarnos, como de hecho hace con millones de ejemplos cada día.


ElDerecho.com no comparte necesariamente ni se responsabiliza de las opiniones expresadas por los autores o colaboradores de esta publicación