La ética del ‘Yo’ digital

Óscar García de la Cruz, Lead Expert Data de Netmind.

Publicado el 13 Ene 2023

Digitalization Concept: Human Finger Pushes Touch Screen Button and Activates Futuristic Artificial Intelligence. Visualization of Machine Learning, AI, Computer Technology Merge with Humanity

En 2003 Google ofrecía algunos datos llamativos: si hasta ese año la humanidad había generado, a lo largo de su historia, un total de 5 exabytes de datos, a partir de ese momento comenzaríamos a generar idéntica cantidad cada 2 días.

El Big Data capacita para manejar con una velocidad aceptable estos inmensos volúmenes de datos, no necesariamente sujetos a una estructura rígida de filas y columnas. Estas nuevas habilidades adquiridas por los seres humanos han transformado drásticamente el modo de relacionarse. Actualmente existen dos formas de estar en el mundo: la forma tradicional, correspondiente al “mundo real” y la del “yo digital”, correspondiente al “mundo virtual” o mundo de los datos.

El Big Data capacita para manejar con una velocidad aceptable estos inmensos volúmenes de datos

Los seres humanos somos tan inherentemente sociales como morales. En consecuencia, parece lógico pensar que esta revolución en la forma de relacionarnos debería conllevar una reinterpretación de algunos conceptos éticos aplicados a este nuevo modelo.

En este contexto cabe preguntarte para qué sirve la ética. Básicamente, ya sea personal u organizacional, la ética sirve para tomar decisiones sistemáticamente, presumiblemente orientadas hacia el bien. Cuestiones como “¿qué debo hacer? ¿qué decisión tomar?” toman protagonismo para conformar decisión tras decisión, lo que en el ámbito personal se conoce como “carácter” y en el organizacional como “cultura”.

Tres problemas fundamentales

Volviendo al concepto del “yo digital”, existen al menos tres problemas fundamentales que se deben abordar como sociedad, y que los organismos regulatorios tradicionales, no parecen capaces de hacerlo, al menos en su totalidad, debido fundamentalmente al volumen y velocidad propios del mundo Big Data. Son tres problemas relacionados con la propiedad de los datos, la privacidad y la responsabilidad.

Sobre la propiedad de los datos hay demasiadas cuestiones sin respuesta. ¿A quién pertenecen los datos, a quienes los generan, a quienes los almacenan o a quienes los compran? ¿Quién está autorizado a vender datos? Si una persona, aun voluntariamente, cede información privada, ¿qué derecho tienen otros a hacer dicha información pública? ¿Puede ser considerada la construcción de determinados productos resultantes del manejo de nuestra información un acto creativo? Si es así ¿No se deberían tener en cuenta los llamados “derechos de autor”? Mientras no se dispongan de respuestas consensuadas a estas cuestiones, se seguirán generando situaciones ambiguas desde una perspectiva de justicia.

Respecto a la “privacidad”, ¿el término significa lo mismo en el mundo real que en el virtual? En este sentido, no deja de ser llamativo el hecho de que, mientras que, en el mundo real, las personas suelen preservar su intimidad, no permitiendo que un tercero convierta información privada en pública sin autorización, en el mundo “virtual”, no se aplica la misma cautela y a menudo se publican voluntariamente aspectos de la vida privada sin medir las consecuencias. En todo caso, parece que la protección referente a esta privacidad ha pasado a depender en muchos casos de las empresas.

En lo referente a la responsabilidad, en el “mundo virtual”, existe una gran dificultad para identificar al sujeto moral, que asumirá en cada caso la responsabilidad, y afrontará las consecuencias derivadas del tratamiento de los datos. Para ilustrarlo, piensa en un coche autónomo. Si bien la mayoría de los estudios sugieren que la puesta en práctica de este tipo de conducción reduciría drásticamente el número de accidentes de tráfico, también es cierto que sería imposible eliminar en su totalidad las situaciones de peligro. Siendo así, mientras que un conductor “humano” será responsable de sus propias decisiones al volante, y por tanto asumiría las correspondientes consecuencias, ¿quién se responsabiliza de las decisiones tomadas por un algoritmo? ¿La persona que programó el algoritmo? ¿La empresa comercializadora de los vehículos o servicios de transporte? Una vez más, se genera un laberinto técnico-legal de difícil resolución hoy en día.

Reputación digital

Por último, y no por ello menos importante, hay que hablar de un concepto relacionado con los tres problemas anteriores: la reputación digital. Hasta hace un par de décadas, la reputación consistía en aquello que la gente, sobre todo cercana, pensaba de nosotros. En el mundo digital, el número de personas que pueden formar una opinión sobre qué tipo de persona o empresa somos nos obliga a replantearnos esta definición. En consecuencia, la capacidad para autogestionar nuestra reputación se ha visto muy mermada.

Por lo tanto, las dos maneras de estar en el mundo generan dificultades relacionadas con la privacidad de las personas, que no pueden resolver los organismos jurídicos tradicionales. La ética se presenta, de este modo, como un instrumento necesario para gestionar estos problemas, implicando a las personas a través de mecanismos de formación que nos permitan confrontar los dilemas derivados de las tecnologías.

La formación es, en definitiva, una herramienta fundamental para poder abordar con éxito todos estos problemas.

¿Qué te ha parecido este artículo?

La tua opinione è importante per noi!

Redacción

Artículos relacionados