Capítulo 6 del libro.

Regulación jurídica del Deep Data Mining y la Blockchain en la explotación de datos del Metaverso

Tribuna Madrid
blockchain

1. INTRODUCCIÓN

El volumen de gestión de datos entorno a perfiles digitales evoluciona a diario y se incrementa de forma exponencial. La cantidad de datos que se generan alrededor de cada ciudadano respecto a todas sus identidades digitales supone un reto tanto a nivel tecnológico como jurídico. La imposibilidad de conocer con total certeza que datos tanto voluntarios como involuntarios genera cada individuo a cada instante provoca una inseguridad jurídica que no se compensa con ninguna regulación en materia de protección de datos independientemente del ordenamiento jurídico al que pertenezca. El metaverso en cuestión de datos generará y moverá un volumen de datos muchísimo mayor. Para conseguir blindar jurídicamente dicho volumen de datos se supone que se tendrán que hacer estudios de volumetría en los que el legislador debería estar implicado desde el primer minuto. El objetivo del legislador para la definición volumétrica de datos no es otra que definir las unidades de agrupación de datos que posteriormente se usarán para el tratamiento de datos verificables o inverificables dentro del metaverso todo ello mediante tecnología de acreditación Blockchain.

No obstante nos resulta necesario tener como horizonte básico para el análisis de la volumetría de datos del metaverso y su regulación jurídica una serie de datos estadísticos que nos pongan en situación respecto a lo que nos estamos enfrentando. En primer lugar en la actualidad en la red se generan diariamente gracias a todos los usuarios y empresas una cantidad de datos equivalente a 161 billones de documentos lo que supone en su extrapolación a datos diarios, que cada día que pasa se generan más de un trillón de datos absolutos por persona (Bulao, 2022). Así mismo el número actual de usuarios únicos que usan internet en el planeta es de 4950 millones, lo que supone un 62,5% de la población mundial con un crecimiento anual medio absoluto de un 4% (Galeano, 2022). Si extrapolamos estos datos al metaverso en los próximos tres años pasaremos de manejar un trillón de datos diarios por persona a 20 trillones de datos diarios por persona. El tráfico de datos diario de cada ciudadano se multiplicará por 20 en diferencia respecto al actual. Este nivel de tráfico de datos en el metaverso supondrá mover datos de todo tipo, datos de salud, bancarios, privados, personales, laborales, comerciales... ("Metaverse to push data usage by 20 times in next 10 years: Report", 2022)

Así, si partimos de la premisa planteada y tenemos en cuenta que el metaverso es una alternativa a la realidad natural y que como venimos indicando se deben tener una serie de prebendas y garantías que se usen como protección frente a posibles agresiones directas o indirectas a los usuarios/ciudadanos que la usarán; estamos frene a un gran reto jurídico. Partiendo de ello es necesario saber que el legislador tiene que abordar como se tratarán y explotarán los datos en y para el metaverso, puesto que éste redefinirá la forma en la que entendemos el tratamiento de datos. La posibilidad de elaboración de perfiles tan precisos que sean capaces de incluso limitar experiencias o actividades a usuarios en base a patrones médicos, es un hecho que debe delimitarse jurídicamente con una buena legislación. En la actualidad se ejecutan análisis basándose en Big Data con metodología de Data Mining. Pero la verdad es que la actual metodología de Data Mining, dividida en siete fases resulta parca para el metaverso e ineficiente en cuanto a tratamiento, seguridad y capacidad de auditoría de información.

Para poder mejorar todo ello debemos enfrentarnos a redefinir desde un punto de vista jurídico el Data Mining para evolucionarlo jurídicamente a otro estado jurídico superior. El metaverso necesita de un nuevo sistema de explotación de datos desde un punto de vista jurídico, el Deep Data Mining. El Deep Data Mining es la herramienta necesaria para la explotación de datos en el metaverso, ya que el actual Data Mining se queda muy corto para su uso como metodología de tratamiento de datos para el metaverso. El hecho de que se quede corto la metodología Data Mining para el metaverso se debe a la gran cantidad de datos que se van a mover, de ahí la necesidad de crear una nueva metodología redefiniendo la anterior; a la que hemos denominado Deep Data Mining. Pero eso no significa que desaparezca una de ellas, seguirá siendo necesario ambas y el mantenimiento de ambos tipos de metodología los cuales dependiendo del volumen y estructura de datos, el uso o explotación de los mismos, el tratamiento y la repercusión de su explotación; se usará o Data Mining o Deep Data Mining.

La necesidad de una nueva metodología jurídica de explotación de datos para el metaverso se debe entre otras cosas al uso imprescindible y necesario que tendrán las tecnologías para el acceso y uso del metaverso las cuales estarán basadas en sistemas hápticos y proxémicos. La capacidad de sentir dolor se podrá llegar a generar de forma voluntaria o involuntaria dentro del metaverso debido a las capacidades que tiene la tecnología háptica. El dolor como causa se basa en una serie de interpretaciones que realiza el cerebro derivado de puntos de recepción sensoriales hápticos del cuerpo humano. Los sistemas hápticos del cuerpo humano se usan para poder generar las sensaciones de tacto, temperatura o posicionamiento del cuerpo. Para ello se usa un complejo sistema nervioso que tiene nuestra especie denominado sistema somatosensorial. El hecho de la existencia de este sistema somatosensorial permite que se reconozcan por el cerebro estímulos como el tacto, la temperatura, la propiocepción que es la posición del cuerpo y la nocicepción a través de nociceptores que informan del estímulo nervioso que el cerebro asocia al dolor. Todo ello resulta posible gracias a estímulos hápticos usando diferentes receptores existentes en nuestro cuerpo: los termorreceptores, los mecanorreceptores y los quimiorreceptores (Ledesma Carbayo, 2009).

La proxémica es en el metaverso el ámbito científico-tecnológico que tiene como finalidad el desarrollo de tecnologías encargadas de la relación espacial entre personas como manifestación social y significante.

Por todo ello la puesta en marcha de legislaciones binarias que regulen situaciones interconectadas en ambas realidades, la realidad natural y el metaverso es imprescindible y necesario que se comiencen a desarrollar doctrinal y legislativamente ya. La realidad en el futuro supondrá que todo el tratamiento de datos será a tiempo real y bajo la necesidad de un sistema de tratamiento de datos en dos impactos.

El primer impacto tendrá como objetivo el tratamiento de datos tras la recaptación o generación de datos forma síncrona con la actividad que esté desarrollando el usuario/ciudadano en el metaverso y posteriormente un segundo impacto para el tratamiento de datos forma asíncrona con el usuario/ciudadano. El primer impacto del tratamiento de datos será en escasas décimas de segundo desde la recepción de los datos para el funcionamiento e interactuación del usuario a tiempo real, donde todo será automatizado y sin intervención humana directa.

El segundo impacto del tratamiento será posterior de forma no sincronizada y aunque estará automatizado tendrá intervención humana directa para evaluar si los resultados obtenidos tras el tratamiento de datos del primer impacto es el que se estaba buscando por parte del responsable del tratamiento o no.

El ordenamiento jurídico actual europeo, o de cualquier país miembro u otro país relevante como Estados Unidos, Canadá, China, Japón o India; ninguno de ellos está preparado para poder ofrecer una cobertura jurídica mínimamente eficiente para el Data Privacy de sus ciudadanos. Por ello resulta necesario insertar jurídicamente un nuevo sistema de tratamiento de datos basado en Blockchain y tratamiento de datos por bloques de almacenamiento denominado jurídicamente como Deep Data Mining.

El metaverso por tanto y partiendo de todo lo indicado en anteriores capítulos no podemos olvidarnos que es un nuevo constrictor jurídico transversal a todas las ciencias que se encuentra en plena naturalización por parte de todos los campos implicados en su futura existencia. Debido a ello es necesario realizar una enmarcación respecto a las diferencias ciencias que componen el derecho como herramienta vertebradora del orden social.

Por lo tanto y para poder evidenciar la necesidad del Deep Data Mining, tenemos que partir de la necesidad de refutabilidad que necesita toda teoría para poder ser correctamente refrendada en su campo científico de actuación. En el caso que estamos analizando se puede ver como resulta necesario evaluar cuales son los cambios de paradigmas que se están sucediendo en el ámbito del tratamiento de datos y de qué forma se afianzan en el campo del derecho respecto al metaverso. Por tanto en lo que a paradigma nos referimos, es necesario conocer si éste desde su actual formación respecto a la teoría a la que se encuentra asociado ha sufrido los suficientes cambios como para regenerar sus teorías con nuevos paradigmas que permitan refutar las teorías anteriores para crear otras nuevas. Teniendo en cuenta lo anterior, debemos ampliar el concepto desarrollado en el capítulo anterior sobre los criterios necesarios para la confirmación de existencia de un nuevo paradigma y completarlos ejemplificando la necesidad del Deep Data Mining como metodología diferente que no complementaria respecto a la anterior el Data Mining. Para ello debemos desarrollar en lo que a su ámbito de validez nos referimos respecto a cinco criterios básicos. Los cinco criterios serán los pilares bajo los cuales argumentar la fundamentación teórica de nuevas consideraciones científicas asociadas a un campo jurídico o científico en los conceptos que abarca el compendio de dichos paradigmas (Morales y Moreno, 1993).

Los cinco criterios que debe cumplir todo paradigma en derecho son:

- PRIMERO "aproximación teórica": La posición teórica del paradigma a formular debe estar delimitada respecto a la metodología a la que se encuentra adscrita en referencia al ámbito científico al que se afecta, de forma que el significado del paradigma genere una necesidad de cambio del significante de la teoría a la que se adscribe. Para el caso concreto al que nos referimos estamos frente a una aproximación teórica diferente. La diferencia entre Data Mining y Deep Data Mining radica en el volumen de datos a tratar, el tipo de tratamiento que necesitan, la inmediatez y la estructura de los datos. Asimismo también cambia la naturaleza jurídica, puesto que comparten cuestiones comunes pero difieren tanto en su núcleo como en su apariencia, puesto que el Deep Data Mining entre otras cosas usará tecnología Blockchain para el tratamiento de datos mientras que el Data Mining no.

- SEGUNDO "ámbito de actuación": El ámbito de actuación del paradigma debe ser adecuado teniendo en cuenta la respuesta que éste debe dar en relación al sujeto afectado por el paradigma respecto al objeto al que afecta todo ello en perspectiva a la reformulación abordada en la aproximación teórica. El Deep Data Mining versus Data Mining tiene un campo de actuación distinto, mientras que el Data Mining no está preparado en su diseño jurídico para el tratamiento de datos a tiempo real con toma de decisiones automatizadas con repercusión háptica y proxémica para el usuario, lo cual tiene repercusiones civiles, penales, o laborales entre otras; el Deep Data Mining si tiene diseño jurídico y naturaleza jurídica para generar un halo protector para estas cuestiones.

- TERCERO "descripción": El paradigma tiene como pilar básico la necesidad de describir y generar la necesidad de una solución práctica a un problema que desde una perspectiva teórica haciendo usa de la doctrina aborda dicho problema. Todo ello teniendo en cuenta la necesidad objetiva que desprende el nuevo paradigma constituido. La solución aportada por la nueva metodología del Deep Data Mining no es otra que la de dar solución al tratamiento de datos metaversales de tipo síncrono y asíncrono.

- CUARTO "objetivo": El paradigma debe tener totalmente definidos de forma clara los objetivos que éste atribuye en referencia a la teoría a modificar. Por ello el paradigma se va a encargar de mostrar una serie de objetivos a investigar con el fin de cambiar una teoría actual por otra que satisfaga las necesidades actuales. El objetivo del Deep Data Mining es dar cobertura jurídica al tratamiento de datos metaversales síncronos y asíncronos mediante la elaboración de un marco jurídico que otorgue naturaleza jurídica suficiente como para evidenciar un nivel de protección correcto al usuario/ciudadano en todos los campos del derecho.

- QUINTO "causa-efecto": El paradigma debe cumplir con la noción de causalidad que sustenta el propio paradigma, el hecho de la existencia de un nuevo paradigma tiene que ser causa suficiente como para impulsar un cambio teórico. La causa-efecto es la protección jurídica óptima del data privacy de todos los tipos de usuarios que compongan el metaverso.

El Derecho, y como un mantra debemos de recordar, que no es “norma y solo norma” como se afirmó en la Teoría Pura del Derecho Hans Kelsen, sino que por el contrario se encuentra impregnado de todo elemento social, político y cultural, económico y también de valores morales y de conducta en una sociedad determinada.(Méndez, 2011). El derecho por ello, entonces, bien sea como derecho natural o derecho positivo tiene un vínculo directo entre acción-reacción respecto a condiciones sociales y necesidades de protección.

Asimismo y para finalizar el proceso de análisis debemos abordar la naturaleza jurídica del derecho penal en el metaverso teniendo en cuenta la obligación de ejecutar dicho análisis desde un enfoque de carácter más garantista que punitivista. El hecho de la existencia de un estado democrático es la base de un sistema de garantías que tiene como finalidad la prevención. Además tiene como deber concretar las exigencias de la dignidad, la libertad y la igualdad humana (Pérez Luño, 1991).

Teniendo en cuenta todo lo indicado y partiendo de los diferentes antecedentes mencionados, los objetivos del presente capítulo tienen como intención en su objetivo primero ofrecer los argumentos jurídicos competentes para construir una concepción teórica acerca de como la naturaleza jurídica del Data Mining respecto a la naturaleza jurídica de la protección de Datos Personales o Data Privacy no es suficiente frente al metaverso. Para ello se debe rediseñar el actual Data Mining respecto a los nuevos paradigmas que influyen en su regulación en dicho ámbito y de esa forma reestructurar como se debe abordar dicha problemática. Los objetivos básicos pasan por definir los campos jurídicos primarios que se encuentran implicados en el desarrollo y mantenimiento del metaverso desde un punto de vista sociojurídico y tecnojurídico.

Por otro lado, en segundo lugar, se va a analizar la situación actual desglosada en el objetivo primero con el fin de ofrecer un posicionamiento de la situación actual legislativa para posteriormente ponerlo todo en perspectiva a los efectos de realizar un análisis en el objetivo segundo desde el punto de vista jurídico obtenido en el objetivo primero respecto a la construcción teórica de la naturaleza jurídica del Data Privacy en el metaverso y su tratamiento síncrono y asíncrono mediante nuevas metodologías de explotación de datos basadas en el constructo jurídico Deep Data Mining. La finalidad del objetivo segundo pasa por analizar la situación legal del objetivo primero en lo que a su marco normativo de referencia actual. La situación jurídica de facto nos arroja una conclusión general que en perspectiva a la actual reflexión sobre el tema de ciertos nuevos paradigmas legales que resultan necesarios ser desarrollados doctrinalmente.

Por ello, en tercer lugar se quiere analizar una vez expuestos los dos objetivos precedentes la situación respecto al marco teórico resultante. La pretensión tiene como finalidad primaria localizar los errores actuales y subsanarlos bajo el prisma de un análisis jurídico novedoso y actualizado el cual ayudará al legislador hacia la creación inequívoca de nuevas normas que permitan a aquellas conseguir su objetivo natural que no es otro que el de proteger desde un punto de vista jurídico a los ciudadanos. De esa forma conseguiremos aportar una nueva visión de qué forma afecta el metaverso a los diferentes conceptos que forman parte del delito en el ámbito de la protección de datos.

Asimismo, para finalizar como último objetivo y el principal de todo ello que vertebra el presenta capítulo y es uno de los pilares científicos del presente libro, se va a realizar una labor de reflexión acerca de cómo el derecho debe abordar en perspectiva al Metaverso un nuevo paradigma de tratamiento de datos y diferenciar entre tratamiento de datos en la realidad natural y tratamiento de datos en el metaverso, aplicando a cada tipología de realidad su propia metodología de explotación de datos, en estos casos Data Mining o Deep Data Mining. La finalidad no es otra que la de localizar los pilares básicos, sobre los que sustentar un nuevo marco teórico que permita desarrollar jurídicamente el metaverso en plenitud jurídica. Todo el análisis se realizará bajo una perspectiva jurídico-proyectista y con una pretensión básica de que todo marco teórico debe brindar una univocidad doctrinal que permita a través del principio de refutación consolidar el paradigma científico elaborado con el fin de conseguir generar una normativa y una doctrina más acorde a los retos actuales que tenemos en materia de protección de datos. Tras realizar dicho análisis, se terminará concluyendo cual es la realidad jurídica de todo ello y la situación actual teniendo en cuenta el auge en materia de nuevas tecnologías.

Por ello, la metodología empleada para el presente capítulo es una metodología basada en la investigación analítica. Por ello, el desarrollo que se va a presentar a continuación se basa en una investigación jurídico-proyectista con naturaleza propositiva y bajo un sistema que emplea fundamentalmente un método inductivo-comprensivo con diferentes momentos en los que se usará una metodología hipotético-deductiva para la exposición del nuevo marco teórico acorde a la propuesta teniendo en cuenta la respuesta al paradigma actual. Asimismo, se propondrá la ejecución de un análisis metodológico proponga un nuevo paradigma jurídico al amparo de un análisis de los datos respecto a la génesis teorética en perspectiva al objetivo a proteger.

El metaverso es una tecnología que con el uso de otras tecnologías como la háptica y la proxémica va a generar repercusiones tanto directas en ámbito físico para el ciudadano como psíquicas de toda tipología. El nivel de tratamiento y generación de datos va a ser algo nunca visto hasta ahora por el derecho, multiplicando solo en sus inicios por 20 el actual nivel de datos diarios de cada usuario/ciudadano. Por ello resulta necesario ante el evidente cambio de paradigma jurídico en el ámbito teórico de la protección de datos y de las metodologías actuales diseñadas para la realidad natural, construir nuevas teorías jurídicas para el tratamiento de datos basadas en el metaverso. Así mediante esta bifurcación teórica damos forma práctica a la ya anteriormente indicada legislación binaria; una legislación que tiene dos ámbitos de actuación para un mismo objetivo la protección del data privacy tanto en la realidad natural como en el metaverso.

2. CONCEPTUALIZACIÓN Y NATURALEZA JURÍDICA

A continuación mostraremos una serie de conceptos básicos necesarios para continuar con el análisis para que podamos ahondar más en la problemática expuesta.

Por ello y de forma principal para tenerlo como señal vigía en materia jurídica se debe recordar los conceptos de validez, vigencia y eficacia de Kelsen el cual indicaba que "una norma jurídica es válida si ha sido creada de una manera particular, es decir, según reglas determinadas y de acuerdo con un método específico, el que ha sido "puesto" (Kelsen, 2020)

Los conceptos que vamos a definir son el de Big Data, Data Mining, Deep Data Mining con el desglose de fases correspondiente y el Blockchain

Si comenzamos definiendo el concepto Big Data, este se compone de una serie de conceptos núcleo. Los conceptos núcleo se usan para generar otro concepto mayor llamado Big Data. Los conceptos núcleo son cuatro:

- Tecnología

- Métodos

- Impacto

- Información.

El primer concepto de Tecnología describe de forma abstracta la arquitectura de un sistema que va a usar una tecnología concreta en base a unas competencias analíticas definidas y concretas mediante el uso de una metodología, que es el segundo concepto núcleo, de forma que se puedan explotar los datos que dicha tecnología recoge con la suficiente rentabilidad.

El segundo concepto núcleo sería el de métodos el cual mediante metodologías de análisis información se analizan datos captados con el fin de alcanzar un objetivo primario establecido y para cuya finalidad se ha lanzado el análisis de datos, con el fin de conseguir un impacto, que es el tercer concepto núcleo.

El impacto, respecto al objetivo primario de análisis de Big Data, es el tercer concepto núcleo del Big Data. El impacto es el valor que tienen los datos obtenidos gracias a la aplicación de los métodos de análisis.

El cuarto concepto núcleo es el concepto de información. La información es la organización bajo parámetros más complejos de los datos obtenidos de forma que esa explotación de datos ahora ya transformada en información haya alcanzado el objetivo primario de Big Data (De Mauro, Greco, & Grimaldi 2016).

Por ello y teniendo en cuenta todo lo anterior, si definimos el concepto Big Data desde un punto de vista jurídico partiendo de los conceptos núcleo que componen el mismo; el Big Data sería aquel conjunto de información en constante actualización, debido a que su estructura conceptual se basa en el análisis de grandes cantidades de datos, que cambia en tiempo real bajo una tipología diversa y que requiere de una tecnología de explotación específica en base a una serie de métodos de explotación analíticos concretos y con el fin de obtener mediante la transformación de esos datos una serie de conclusiones con un valor específico en base a procesos analíticos con relevancia para el tratador de dichos datos mediante Big Data.

Si continuamos con el Data Mining a este lo entendemos definido jurídicamente como una metodología de explotación e interpretación de datos que usa herramientas basadas en IOT e IORT para recaptar datos que posteriormente serán tratados bajo Data Mining con la finalidad de obtener información concreta. El Data Mining es la metodología de extracción y tratamiento de datos del Big Data, indicado en su segundo concepto núcleo.

El Data Mining no es otra cosa que la extracción de información y por ello la finalidad de ésta metodología de explotación de datos tiene como objeto extraer información útil de grandes volúmenes de datos (Big Data). Para ello Data Mining, KDD o KMD tiene como objetivo principal en su base jurídica analítica, la búsqueda de patrones de información partiendo de datos existentes en diferentes bases de datos vinculadas a actividades propias de la realidad natural sean estas desempeñadas en ella o en otras realidades como el metaverso. Para esta finalidad usa sistemas estadísticos, machine learning o patrones de reconocimiento a través de algoritmos de extracción de información, dividido en una serie de fases (Alasadi, 2017).

Por ello, si realizamos un análisis de la definición de Data Mining, podemos concluir que es una técnica de carácter exhaustivo, con una serie de pautas, bajo una orden de tendencias y correlaciones cuyo fin es conocer la realidad del dato que analizan o buscan (Kamber, Pei, 2011).

La idea de mining proviene precisamente de la dedicación que se necesita, siendo un paralelismo con el trabajo que se realiza en una mina para localizar un determinado material. (Berzal, Matín, 2002)

Asimismo si tras todo ello definimos el Deep Data Mining, lo entendemos definido jurídicamente como una metodología de explotación e interpretación de datos de Big Data que trata datos en dos impactos:

- El primer impacto recapta datos mediante sistemas de tecnología háptica y proxémica en Metaversos o realidades diferentes a la realidad natural para su posterior tratamiento mediante metodología Deep Data Mining con la finalidad de obtener una serie información compleja para su posterior descomposición y tratamiento en vivo, estudio, aplicación y corrección de forma cíclica y automatizada, es decir síncrona, usándose los resultados como feedback para alimentar el funcionamiento de la tecnología háptica y proxémica que a su vez interactúa con el entorno recreando la realidad natural entre usuario/ciudadano y metaverso.

- El segundo impacto asíncrono se dará de forma simultánea al síncrono y tiene como fin el análisis de la información que se usa en el primer impacto para la posterior corrección o mantenimiento de explotación de datos del primer impacto.

El objetivo del Deep Data Mining a diferencia del Data Mining es la extracción y/o tratamiento de información solicitada o recaptada por hardware y/o software en el propio metaverso y la realimentación de ese mismo hardware y software que necesita de ese tratamiento de Deep Data Mining para el correcto funcionamiento de sistemas hápticos o proxémicos en contacto directo o indirecto con el usuario/ciudadano y sin los cuales no funcionaría el metaverso de forma correcta.

Por ello el uso de ésta metodología de explotación de datos tiene como objetivo principal en su base jurídica analítica a la búsqueda de patrones de información partiendo de datos existentes en diferentes bases de datos vinculadas a actividades propias del metaverso con el fin de recrear la realidad natural de forma síncrona con procesos de revisión asíncronos. Por ello, si realizamos un análisis jurídico esquemático de la definición de Deep Data Mining, podemos indicar que es una técnica de carácter exhaustiva, cíclica y en constante contacto con el usuario/ciudadano que usa una serie de hardware y software que interactúa de forma directa o indirecta tanto física como psíquicamente con él y que bajo un orden de tendencias y correlaciones cuyo fin es conocer la realidad del dato que analiza o busca para poder mantener en constante movimiento el metaverso.

La principal diferencia entre el Data Mining y el Deep Data Mining, es que el Data Mining tiene un carácter más estático sin vinculación directa a software o hardware que interactúe biológicamente con el usuario/ciudadano; mientras que el Deep Data Mining por el contrario si interactúa en el terreno biológico incluyendo en el la psique.

Como se ha indicado el data mining pertenece a un campo multidisciplinar en el cual realmente el concepto se encuentra dentro del gran concepto Knowledge Mining from Data, el cual realmente estructura 7 procesos diferentes con los cuales se pretende alcanzar el objetivo de extraer datos relevantes para diferentes usos (Kamber, Pei, 2011). Por ello vamos a usar estos 7 procesos básicos para rediseñarlos con una nueva metodología para poder construir jurídicamente y otorgar de naturaleza jurídica al Deep Data Mining. Los procesos o fases que conforman este Deep Data Mining son 10:

PRIMER IMPACTO USO SÍNCRONO

Recepción de datos

1. Data Classification; los datos recibidos se agrupan por bloques a través de dos fases. En una primera fase se etiquetan los datos de forma que se puedan agrupar los datos recibidos en bloques por tipologías de datos matriz; es decir datos de uso háptico o datos de uso proxémico. Posteriormente esos bloques se disgregan añadiendo una segunda etiqueta para formar tantos bloques como tipologías de datos existen dentro de cada grupo matriz, pero nunca de forma aislada, es decir con esta segunda etiqueta se tienen que agrupar por ejemplo: datos hápticos-auditivos, etc, de forma que posteriormente se puedan identificar en procesos de evaluación y resiliencia.

2. Data Integration; se dedica a revisar la integridad de los datos componentes de los diferentes bloques compuestos, preparándolos para su posterior identificación de forma eficiente y tratamiento.

3. Data Cleaning; en esta fase se separan los datos existentes en los bloques que se consideran ruido informativo o son desechables por su innecesariedad de los que no lo son.

4. Data Authentication; los bloques con el doble etiquetado datos y tras el data cleaning se tratan mediante tecnología Blockchain o técnica de proceso distribuido de información de forma que cada bloque de datos independiente tenga su propio Hash siendo remitidos a la cadena correspondiente de forma ordenada y siempre en el mismo orden secuencial para que pueda posteriormente ser auditado o editado en caso de ser necesario.

Procesamiento de datos

5. Data Supervision; es un proceso donde se analizan los bloques de datos para detectar posibles bloques de datos con datos corruptos o irrelevantes eliminando aquellos datos en el bloque que por su combinación con otros datos se consideran desechables, generando un nuevo Hash y marcando la edición del mismo de forma que se almacene en el bloque editado el antiguo Hash para en caso de ser necesario conocer la razón de la edición en procesos de auditoría o evaluación y resilencia y no alterar la cadena de bloques donde se ubique el bloque correspondiente editado.

6. Data Transformation; en este apartado se transforman los bloques de datos en datos consolidados y se le agregan a modo de índice que datos se han desechado desde el paso 1 hasta el paso 5 agregándole un nuevo Hash almacenando en el bloque el Hash de origen y las razones de porqué se ha tomado dicha decisión, los orígenes de los datos y diferentes datos adicionales pueden ayudar a perfilar dichos datos en el proceso de data mining.

Aplicación de Data Mining

7. Deep Data Mining; éste es el proceso más importante de todos; los seis anteriores que se han utilizado exclusivamente para preparar los datos para éste séptimo paso, así como otorgarles de une huella electrónica que acredita su trazabilidad y autenticidad. Aquí mediante diferentes algoritmos basados en inteligencia artificial no autónoma de segundo nivel dentro de la escala de tipos de inteligencia artificial legal, se extraen combinando todos los datos de un usuario, nuevos datos más complejos que generan nueva información con suficiente relevancia como para ser usadas en los procesos hápticos y proxémicos de todo tipo para el uso del metaverso sobre cada usuario de forma individualizada y de forma colectiva entre ellos como si de una colmena se tratase. (Nisa Ávila, 2016)

SEGUNDO IMPACTO USO ASÍNCRONO

Evaluación y Resiliencia

8. Pattern Evaluation; se dedica a identificar en base a unos patrones de interés y supervisión preestablecidos si la información tratada y obtenida por el paso 7 deep data mining es la más adecuada para el funcionamiento de las tecnologías indicadas y las marca como datos correctos y autentificados.

9. Máster Audit; con los datos obtenidos del Pattern evaluation se preparan todos los datos en base a sus bloques de forma que se almacenan de forma aislada y estática por esa tipología y en escala clasificatoria cronológica.

10. Knowledge Presentation; es la capa final de presentación de los datos mediante el cual los datos pueden ser auditados.

Las 10 fases descritas asociadas cada una de ellas a su correspondiente impacto, nos muestran la diferencia de complejidad respecto al data mining tradicional cuando nos enfrentamos al tratamiento de datos en el metaverso. Todo esto nos hace ver la dimensión del problema al que nos enfrentamos, sobre todo en materia de Blockchain.

Por lo que respecta al Blockchain, desde un punto de vista jurídico el Blockchain es una pieza clave en la gestión de datos en el metaverso. El uso de técnicas de almacenamiento distribuido de información será clave para poder usar el metaverso en la gestión de datos vinculados al uso y acceso de tecnologías hápticas y proxémicas. La razón se basa en la necesidad de generar bloques de datos inmutables personalizados para cada usuario en relación a un entorno común que interactúa de forma única con cada usuario/ciudadano y entre ellos mismos. Las tecnologías que tengan vínculo con la biología necesitarán tener sus datos básicos de relación entre metaverso vs biología controladas al máximo posible para evitar errores o conductas contrarias a derecho que puedan perjudicar física o psíquicamente a un usuario/ciudadano. El objetivo es prevenir la posibilidad de alterar los bloques de datos para que puedan usarse de forma perjudicial contra el dueño de esos datos, que no puede ser otro que el propio usuario/ciudadano no el metaverso y en caso de ser alterados poder realizar una exhaustiva labor forense digital.

La inmutabilidad de datos por parte del metaverso resultará necesaria para mantener un correcto funcionamiento y prevenir conductas jurídicas contrarias a derecho y por ello punibles penal, civil o laboralmente entre otras posibilidades legales. El hecho de la inmutabilidad de datos en el metaverso debe ser un hecho obligatorio porque a diferencia de la realidad natural donde un fraude en los datos difícilmente puede generar la muerte de un ciudadano, en el metaverso será mucho más sencillo generar todo tipo de agresiones por las tecnologías usadas. Pero esta inmutabilidad será por consolidación de los datos no por nacimiento de datos. Por ello los bloques de datos que se usen con estos fines deben ser verificables en cuanto su contenido respecto al origen mediante Blockchain. La única diferencia será respecto a cómo se genera actualmente esta tecnología y como deberá ser, puesto que los datos deben ser auditables por terceros organismos supervisores y por otro lado los datos hasta que estos datos no sean totalmente correctos y consolidados no serán bloqueables mediante un segundo hash que emitirá ese tercer organismo encargado de auditorías y supervisión.

La solución pasa por la capacidad de editar un bloque de una cadena Blockchain, de lo cual hablaremos luego más adelante.

Así, si elaboramos una definición jurídica globalizada de que es la Blockchain la podemos definir como una red de datos descentralizada de tipo público, privado, federado o BaaS que tiene como nucleo una base de datos estructurada en cadenas de bloques de información que usa una técnica de almacenamiento distribuido de información de gestión descentralizada y que hace uso de políticas de consenso para validar la información contenida y establece políticas de detección de integridad de los datos originalmente registrados a través de una serie de nodos descentralizados mediante el uso de algoritmos de consenso para unir diferentes bloques de datos físicamente independientes a través de una cadena cifrada destinada a almacenar información o datos donde cada nuevo bloque de datos que se incorpora a la cadena está relacionado con el bloque inmediatamente anterior al incluir entre sus datos el hash del bloque previo y su propio Hash. ("El Blockchain y sus implicaciones jurídicas - Universidad Externado de Colombia", 2022) ("Blockchain (II): Conceptos básicos desde la protección de datos | AEPD", 2022).

El Blockchain como indicamos en la definición necesita para funcionar ubicarse dentro de una red y algunas de las funcionalidades más comúnmente asociadas al Blockchain como la descentralización y transparencia de los datos o los protocolos de consenso no se dan en todos los tipos de redes de Blockchain. Asimismo las reglas para validar transacciones, admitir participantes o acceder al Blockchain también cambian drásticamente en función de la red donde se encuentre ubicada la información de las transacciones, los bloques y sus respectivos hash ("IBM Blockchain | IBM", 2022).

Los tipos de redes son (López & Unda, 2022):

- Redes Blockchain públicas

- Redes Blockchain privadas

- Redes Blockchain federadas o de consorcio

- Redes Blockchain as a Service – BaaS

Las redes de Blockchain públicas permiten que cualquier persona tenga acceso, son transparentes y los usuarios anónimos. Ningún participante tiene más derechos que otro y no hay administradores de red. Las transacciones se validan a través de protocolos de consenso.

Las redes de Blockchain privadas sin embargo su control se reduce a una única entidad que se encarga de mantener la cadena, dar permisos a los usuarios para que puedan participar, proponer transacciones y aceptar los bloques. En estas redes no hay ningún tipo de descentralización ni de consenso.

Las redes de Blockchain federadas son las más solicitadas a la hora de construir soluciones compartidas para gobiernos, empresas, y asociaciones. Por su estructura organizativa no están abiertas a la participación del público, sino que son organizaciones, entidades o compañías las que se encargan de administrar la red, mantener las copias sincronizadas del registro y proporcionar los recursos computacionales necesarios para generar los Hash. Las redes federadas no recompensan al usuario para la creación del hash a través del minado de bloques y no tienen por qué tener una criptomoneda asociada.

Asimismo respecto a las redes tipo BaaS, son redes que ofrecen grandes compañías como servicios de Blockchain en la nube estos servicios no solo consisten en almacenamiento de información, en este caso del Blockchain, sino que también ofrecen un aumento en la seguridad, la no necesidad de invertir en hardware y la posibilidad de un entorno más amigable con el que trabajar, pudiendo crear tu propio canal de Blockchain sin necesidad de programar.

El metaverso tendría dos redes de Blockchain una federada y otra pública. La red federada se dedicará a la autenticación de datos de usuarios bajo cogobernanza entre una entidad gubernamental supervisora y la empresa responsable de metaverso, sin relevar bajo ninguna circunstancia el knowhow y knowhow-tech de la empresa responsable del diseño del metaverso en cuestión. La red pública será la que contendrá la criptomoneda que se usa para transacciones en el metaverso y que veremos en otro capítulo como tratar dicha cuestión.

3. EL TRATAMIENTO DE DATOS A TIEMPO REAL EN EL METAVERSO

El tratamiento de datos a tiempo real en el metaverso como hemos indicado a lo largo del presente capítulo supone un reto jurídico por la inmediatez de tratamiento y reciclaje del proceso de tratamiento bien por data mining sobre datos no vinculados a cuestiones directas al usuario en su relación al metaverso sino adyacentes o datos vinculados o de datos vinculados a usuarios y metaverso de forma directamente influyente y se deban de tratar mediante Deep Data Mining.

Los tres pilares básicos para el tratamiento de datos a tiempo real en el metaverso serán:

- Garantía de seguridad de tratamiento de datos a tiempo real

- Supervisión gubernamental independiente de agencias de protección de datos

- Doble sistema de cifrado de los bloques de datos

Si comenzamos por la garantía de seguridad en el tratamiento de datos a tiempo real, tenemos que comenzar por la necesidad de garantizar la integridad de los datos para otorgar seguridad jurídica a las transacciones. La necesidad de garantizar la seguridad jurídica de las transacciones que se lleven a cabo en el metaverso nos lleva a la necesidad de implementar nuevos sistemas jurídicos que prevengan posibles problemas y vertebren el uso de datos por parte de las tecnologías que usen estos sistemas. Para ello será necesario abordar dos problemas básicos:

- Tiempo de almacenamiento

- Auditoría e inmutabilidad del Blockchain

Por lo que respecta al tiempo de almacenamiento resultará necesario almacenar sine die todo el tráfico de datos de un usuario/ciudadano en el metaverso con fines de auditoría forense digital. La ciencia forense digital necesita de prevendas y salvaguardas legales otorgándole amparo jurídico así como naturaleza jurídica propia y reconocida. Por ello todo dato que se genere será almacenado de forma permanente en base a tecnología de almacenamiento distribuido de información. Para ello existirán diferentes cadenas independientes de Blockchain entre sí según el origen del dato, la finalidad, el tratador y la red donde se ubique la cadena; existiendo siempre cadenas de histórico donde se almacenen todos los datos offline que suponen el lifelogging completo del usuario/ciudadano en el metaverso.

Por lo que respecta a la inmutabilidad y la capacidad de auditar un Blockchain, actualmente el Blockchain tiene la capacidad de generar bloques inmutables que puedan ser validados y no modificables al encontrarse dentro de una cadena de bloques. Pero ello aunque no lo parezca, no genera suficiente seguridad jurídica. La inmutabilidad de una situación supone una congelación del supuesto de hecho que genera una situación jurídica identificable. Pero esta inmutabilidad no es suficiente por si misma al no ser el origen del que proviene inmutable, sino alterable e imprevisible, puesto que la fuente de origen es un usuario/ciudadano que está bajo libre albedrío. Por ello la actual inmutabilidad del Blockchain no es el supuesto de hecho jurídico que necesitamos tal y como actualmente lo conocemos. La Blockchain se debe reconfigurar para poder ser auditada de forma externa tanto en su continente como en su contenido. Los bloques que forman la Blockchain deben poder ser alterados o modificados sin perder el Hash de origen, añadiendo tantos hash de modificación como sean necesarios por cada alteración entre el bloque origen y el bloque definitivo. No podemos perder de vista que nos estamos refiriendo a datos que van a ser usados en tecnologías hápticas y proxémicas, por lo tanto con repercusiones tanto físicas como psicológicas para el usuario.

Para solventar el problema de la edición del Blockchain se introducen varios conceptos nuevos por parte de investigadores de la Bundeswehr University Munich y la School of Communication and Information Engineering de la Universidad de Shanghái. Los conceptos que introducen estas universidades y tienen mucha relevancia jurídica en cuanto al tratamiento de datos procedentes de Blockchain son:

- El borrado selectivo de datos no relevantes, innecesarios o ya no usables.

- La creación de bloques de Blockchain editables en cualquier momento mediante el cifrado por fases.

El borrado selectivo de Blockchain es una metodología que permite almacenar de forma selectiva partes de los diferentes bloques de la cadena sin perder la inmutabilidad e inalterabilidad de datos así como su comprobación. El sistema debe crear cada cierto tiempo bloques resumen en los cuales todos los datos correspondientes a la cadena de bloques a almacenar se repasan para eliminar los datos no consolidados o innecesarios prescindibles sin los cuales no se ve alterado la finalidad de ese bloque pudiendo seguir siendo comprobables e inmutables en su finalidad (Hillman, Knüper, Heiland & Karcher, 2020). El borrado selectivo de información no necesaria permitirá jurídicamente otorgar de seguridad jurídica suficiente a la eliminación de datos innecesarios que puedan suponer la identificación del usuario en redes Blockchain y que no requieran almacenar ese tipo de datos descentralizando los datos en dos cadenas de bloques una de control gubernamental donde se almacenan los datos de identificables que se han separado de la cadena original en manos de la empresa que gestiona el metaverso y el resto de datos en la cadena original. Con ello, daríamos cumplimiento a la total anonimización del usuario solo desvelada por petición del mismo, incidencias, accidentes, investigaciones u auditorias necesarias.

Por otro lado mediante la creación de bloques editables mediante cifrado por fases se consigue volver editable salvaguardando la inmutabilidad y seguridad las diferentes cadenas de bloques de Blockchain. La creación de bloques por fases permite que en lugar de crear como hasta ahora se hace directamente la información contenida dentro del bloque que se inserta en la cadena, la información se cree de forma descentralizada al bloque para luego contenerlo en el mismo. Por ello primero se cifraría la información relativa a cada grupo de datos, transacción o movimiento de datos del usuario de forma independiente para posteriormente agrupar todas las transacciones cifradas y volverás a cifrar una segunda vez ahora sí, como bloque para ser incorporado a la cadena. Con esta metodología de trabajo de explotación de datos en Blockchain conseguimos poder editar bloques de datos contenidos dentro de los bloques de la cadena sin tener que cambiar el Hash de los bloques que componen la Blockchain donde se encuentren incorporados (Cai, Ren & Zang, 2020). Este sistema permite editar en cualquier momento por el dueño de los datos (y por extensión de la transacción) lo cual otorga una seguridad jurídica a la transacción mucho más alta que en el actual Blockchain generando una mayor transparencia y trazabilidad legal a cualquier actuación dentro del Blockchain.

Todo esto nos permitirá auditar por parte de organismos gubernamentales independientes a las agencias reguladores de protección de datos cualquier transacción llevada a cabo mediante Blockchain sin necesidad de perder la inmutabilidad ni la fiabilidad del sistema, puesto que todo negocio jurídico debe ser lo suficientemente rígido y flexible como para ser disuelto en cualquier relación jurídica cuando una parte así lo desee por causa justificada.

Por ello y para dar mayor cobertura jurídica se deben regular de forma profunda los tipos de algoritmos aceptados como seguros para el cifrado de datos en el metaverso. Los sistemas de cifrado deben estandarizarse desde un punto de vista legal para usar ante un mismo negocio jurídico un mismo algoritmo. Para la cuestión analizada pueden usarse algoritmos de cifrado cuántico para el cifrado individual de transacciones mediante un algoritmo de Grover y un cifrado por Hash para el bloque en su conjunto (que contiene todas las transacciones) y el cual resiste a la tecnología de encriptación cuántica al estar comprobado que no puede ser descifrado de forma cuántica los sistemas de cifrado asimétrico por Hash (Ramiro, 2017).

4. CONCLUSIONES

El metaverso tendrá una gran relevancia para nuestra sociedad y supondrá como hemos venido indicando un cambio de paradigma a todos los niveles. Los datos en el metaverso son el núcleo del mismo, sin datos, el metaverso no funciona. El concepto dato se convierte en la partícula elemental del metaverso, el equivalente al átomo para la realidad natural. Los sistemas que se usen tanto para entrar en el metaverso como dentro para su navegación, usan datos de todo tipo, interactúan con datos, generan datos, eliminan datos. Todo este tráfico de datos debe ser supervisado, cifrado, auditado y comprobable puesto que las consecuencias pueden ser directas sobre un ciudadano tanto en la realidad natural como en el metaverso.

Teniendo en cuenta todo lo anterior podemos tomar conciencia del camino que resulta necesario respecto a la construcción de semejante desafío jurídico en cuanto a elaboración normativa se refiere. La necesidad de creación de grupos de trabajo interdisciplinares y la mejora de los currículos universitarios agregando materias legales en ingeniería y materias de ingeniera en derecho resulta no sólo necesario sino obligatorio. La asunción de competencias hibridas por parte de futuros juristas y legisladores que tengan soft y hard skills tanto en derecho como en ingeniería debe resultar necesario para los especialistas en la materia.

Lo que no podemos es elaborar normativas agregando terminología científica de la cual se carece de toda base para tener conocimiento si esa norma protege de forme eficiente el bien jurídico común que tiene como objetivo. La cada día más imperante realidad de tecnificación de la sociedad y la vida implica volver a los principios del derecho natural y regenerar el derecho conforme a las necesidades sociales. Todo ello implica ampliar conocimientos y asumir la interdisciplinariedad como propia en derecho y convertirnos en los arquitectos jurídico-tecnológicos del metaverso; para de esa forma crear un metaverso seguro para todos los ciudadanos de cualquier parte del mundo.

5. REFERENCIAS

Alasadi, S. A., & Bhaya, W. S. (2017). Review of data preprocessing techniques in data mining. Journal of Engineering and Applied Sciences, 12(16), 4102-4107.

Berzal, F., & Matín, N. (2002). Data mining: concepts and techniques by Jiawei Han and Micheline Kamber. ACM Sigmod Record, 31(2), 66-68.

Blockchain (II): Conceptos básicos desde la protección de datos | AEPD. AEPD. (2022). Retrieved 21 April 2022, from https://www.aepd.es/es/prensa-y-comunicacion/blog/blockchain-II-conceptos-basicos-proteccion-de-datos.

Bulao, J., 2022. How Much Data Is Created Every Day in 2021? [Online] Disponible en: https://techjury.net/blog/how-much-data-is-created-every-day/#gref> [Consultado el 25 de enero de 2022].

Cai, X., Ren, Y., & Zhang, X. (2020). Privacy-Protected Deletable Blockchain. IEEE Access, 8, 6060-6070. https://doi.org/10.1109/access.2019.2962816

De Mauro, A., Greco, M., & Grimaldi, M. (2016). A formal definition of Big Data based on its essential features. Library Review.

El Blockchain y sus implicaciones jurídicas - Universidad Externado de Colombia. Universidad Externado de Colombia. (2022). Retrieved 21 April 2022, from https://www.uexternado.edu.co/derecho/el-blockchain-y-sus-implicaciones-juridicas/.

Galeano, S. (2022). El número de usuarios de internet en el mundo crece un 4% y roza los 5.000 millones (2022) - Marketing 4 Ecommerce - Tu revista de marketing online para e-commerce. Marketing 4 Ecommerce - Tu revista de marketing online para e-commerce. Retrieved 16 February 2022, from https://marketing4ecommerce.net/usuarios-de-internet-mundo/.

Han, J., Kamber, M., & Pei, J. (2011). Data mining concepts and techniques third edition. Morgan Kaufmann.

Hillmann, P., Knüpfer, M., Heiland, E., & Karcher, A. (2020, November). Selective Deletion in a Blockchain. In 2020 IEEE 40th International Conference on Distributed Computing Systems (ICDCS) (pp. 1249-1256). IEEE.

Kelsen, H. (2020). Teoría pura del derecho. Eudeba.

Ledesma Carbayo, M. (2009). El sistema somato-sensorial [Ebook]. Universidad Politécnica de Madrid. Retrieved 17 February 2022, from https://web.archive.org/web/20091211142732/http://insn.die.upm.es/docs/tacto.pdf.

López, M., & Unda, V. (2022). Conoce los distintos tipos de Blockchain. Abierto al Público. Retrieved 21 April 2022, from https://blogs.iadb.org/conocimiento-abierto/es/tipos-de-blockchain/.

Méndez, Y. D. (2011). El derecho y su correlación con los cambios de la sociedad. Derecho y Cambio Social, 8(23), 28.

Metaverse to push data usage by 20 times in next 10 years: Report. The Economic Times. (2022). Retrieved 21 April 2022, from https://economictimes.indiatimes.com/tech/technology/metaverse-to-push-data-usage-by-20-times-in-next-10-years-report/articleshow/89657820.cms?from=mdr.

Nisa Ávila, J. A. (2016). Robótica e Inteligencia Artificial ¿legislación social o nuevo ordenamiento jurídico. Revista El Derecho, Francis Lefebvre

Pérez Luño, A.E. (1991). Derechos Humanos, Estado de derecho y Constitución. Madrid:

Tecnos.

Ramiro, R. (2017). La criptografía Post-Quantum. CIBERSEGURIDAD .blog. Retrieved 22 April 2022, from https://ciberseguridad.blog/la-criptografia-post-quantum/.

¿Qué es la tecnología de Blockchain? - IBM Blockchain | IBM. Ibm.com. (2022). Retrieved 21 April 2022, from https://www.ibm.com/es-es/topics/what-is-blockchain