C. LA NECESIDAD DE REDEFINIR EL NÚCLEO ESENCIAL DEL DERECHO AL HABEAS DATA
El procesamiento automatizado de datos personales por sistemas de IA suscita profundos retos legales y éticos respecto de la autonomía y la agencia humanas, en el sentido de que, con la suficiente información disponible, y la alta capacidad de aprendizaje adquirida por la tecnología, los gobiernos o las empresas privadas podrían eventualmente interferir en la autonomía y el libre desarrollo de la personalidad de los seres humanos.
De acuerdo con Daniel Solove (2008: 1101), se pueden identificar diferentes concepciones de privacidad: en primer lugar, la forma más antigua de privacidad se remonta al derecho a ser dejado en paz, en el entendido de que los individuos tenemos el derecho a no sufrir intrusiones o invasiones en nuestra vida privada, salvo que se trate excepciones que emanen del hecho de vivir en comunidad; en segundo lugar, la privacidad puede ser considerada como “el deseo individual de ocultamiento y por estar separado de los demás” (p. 1102), en donde hay una idea de aislamiento y separación de la sociedad; en tercer lugar, el secreto y la reserva de cierta información también pueden ser considerados como privacidad, toda vez que representan la independencia del ser y el ejercicio de otros derechos subjetivos (p. 1106); en cuarto lugar, una de las nociones que mayor desarrollo ha alcanzado es considerar la privacidad como el control de la información personal, entendida como la posibilidad de autorizar o restringir su circulación (p. 1110); en quinto lugar, y debido al reconocimiento de los atributos del individuo, también se habla de la privacidad como persona, como un concepto unificado y coherente que protege contra la conducta que es “degradante a la individualidad” (p. 1116), y en sexto lugar, existe una teoría que considera la privacidad como una forma de intimidad, de tal suerte que involucra el desarrollo de las relaciones personales y el control sobre ellas (p. 1121).
En un sentido similar, la doctrina explica que la Corte Suprema de Justicia de los Estados Unidos “[…] ha adoptado una teoría de la privacidad de la persona en sus decisiones sustantivas sobre el debido proceso” (Solove, 2008: 1117). En otras palabras, la privacidad implica asumir decisiones personales e íntimas que son propias del ejercicio de la dignidad personal y la autonomía ( Waldman, 2018).
El profesor E. Bloustein (2010: 187) señala que “[u]na intrusión en nuestra privacidad amenaza nuestra libertad como individuos para hacer lo que queramos”. De manera que para mantener el ejercicio de esa dimensión de privacidad la doctrina recomienda una nueva arquitectura de recopilación de datos basada en principios, con el fin de que los titulares tengan una real participación en el uso de su información personal (Waldman, 2018).
Resulta interesante el interrogante que presenta Roger Brownsword (2017: 2): ¿cómo debe el derecho enfrentar las aplicaciones particulares de las nuevas tecnologías que tienen un efecto negativo en la libertad de las personas? Y al respecto señala que “… el derecho es sustituido en cierta medida por la gestión tecnológica y en realidad la prueba de las libertades que tenemos no está tanto en la codificación jurídica”. Dicho de otra forma, las circunstancias que rodean a la privacidad involucran la dignidad humana, puesto que mediante la reserva de la esfera intima es como se exaltan la libertad y la individualidad del ser humano. Es importante tener en cuenta los efectos ambivalentes de la tecnología en la sociedad, puesto que es allí donde se debe reforzar la protección de los derechos humanos.
Considero que este es el punto de partida para redefinir los contornos del derecho a la privacidad, y la expansión del núcleo esencial del habeas data , con el propósito de argumentar que existe un derecho fundamental a tomar nuestras propias decisiones de manera autónoma, informada y sin injerencias indebidas, no consentidas o ilegales de terceros.
PARTE II. LA ÉTICA DIGITAL, LA AGENCIA HUMANA Y EL BIG NUDGING
A. LA TECNOLOGÍA, LA ECONOMÍA CONDUCTUAL Y SU RELACIÓN CON LA AGENCIA HUMANA
El auge de la tecnología y los avances en materia de IA han mostrado la necesidad de retomar las discusiones respecto de la autodeterminación de la persona, y el análisis de lo que significa ser un “hombre tecnológico”.
En efecto, la discusión planteada por Günter Ropohl (1986)respecto de los peligros sociales de la tecnología se centra en que el tratamiento de la información es un elemento crucial en el desarrollo del automatismo, pero que la comprensión humana no se da solamente con datos sino con “el sentido” que el hombre les imprime. En esa medida, Ropohl (1986: 63 y 64) explica que, de acuerdo con el sistema de acción humana, las capacidades de actuar y razonar son habilidades que conforman “el sentido” de la existencia del ser humano. De ahí la importancia de diferenciar la autoconciencia y la libre decisión, de la influencia que pueden generar las tecnologías en la vida de las personas y sus decisiones cotidianas.
Ahora bien, las cuestiones relacionadas con el impacto de la tecnología en la agencia humana y en nuestra autonomía se remontan a los estudios de Joseph Weizenbaum (1976), quien identificó la relación entre las computadoras y la dignidad humana. El desarrollo de las tarjetas y programas de computación estaba en auge, y empezó a surgir una preocupación social respecto de la posibilidad de que esas innovaciones despersonalizaran al ser humano e imitaran su comportamiento.
El profesor Weizenbaum (1976) propuso incluir límites morales para las aplicaciones informáticas que tuvieran por objeto, o como efecto, sustituir una persona encargada de realizar una función por una computadora, entre ellos el respeto del componente interpersonal, la comprensión y el amor en la misma categoría. Asimismo, indicó que cuando las consecuencias del uso de las computadoras causara hechos imprevisibles e irreversibles, era conveniente encontrar otras formas de realizar dichas acciones ( Mitcham, 1986: 96).
En el mismo sentido, la filosofía moral escolástica se refirió a la “incontinencia” para explicar la ausencia de continentia o autocontrol, lo que indica una pausa entre el conocimiento y la acción. Por consiguiente, la ética de la tecnología significa que existe una mayor capacidad de actuar en términos de poder, por lo que es necesario usarla responsablemente. La responsabilidad implica conocer el objetivo, las consecuencias y el desempeño real de la tecnología, además de actuar sobre la base de la inteligencia en volición activa (Mitcham, 1986: 248).
Pero si bien estos aspectos han suscitado cuestiones filosóficas de estudio, y las conclusiones preliminares apuntan a que por ahora las máquinas no tienen capacidades de razonamiento autónomo, hay teorías que argumentan que la mente constituye un autómata libre que funciona gracias a principios condicionados en el mundo exterior, razón por la cual es posible condicionar o determinar al ser humano ( Beck, 1986: 93). De ese modo se presentan numerosas incapacidades que afectan materialmente su condición de ser pensante en cuanto a habilidades especializadas, y de ahí la necesidad de interactuar con elementos externos ( Dretske, 1986: 113).
De esa manera la tecnología se ha convertido en una herramienta fundamental para la automatización de competencias y el mejoramiento de la productividad. De ahí que se reseñe a los algoritmos como un “procedimiento P, es decir, un conjunto finito (o secuencia) de declaraciones (o reglas, o instrucciones)”, que tiene como objetivo alcanzar el resultado previsto en su diseño ( Rapaport, 2017).
La economía conductual enseña que es viable “empujar ligeramente” a las personas hacia la realización de ciertos comportamientos y la toma de ciertas decisiones. Cass Sunstein y Richard Tahler (2008)proponen un método para diseñar la arquitectura de las decisiones con base en los postulados del paternalismo-libertario , de acuerdo con el cual, es plausible implementar una estrategia de diseño de esquemas de decisión en la que el componente libertario viene dado por la libertad de las personas para tomar las decisiones que a bien tengan para sus vidas. Ello implica que el arquitecto de esquemas de toma de decisiones no debe poner ningún tipo de carga a la potestad de elegir, ni mucho menos sancionar las elecciones de las personas.
Читать дальше