B. LA PREOCUPACIÓN POR LA PRIVACIDAD
Considero que el procesamiento de datos personales e institucionales por sistemas de IA para describir, predecir o prescribir información suscita problemas éticos en dos niveles estrechamente ligados con los desafíos que impone la gobernanza de los sistemas de IA ( Castaño, 2020).
Con apoyo en la abundante doctrina en la materia, considero que los principales retos éticos de los sistemas de IA derivan, en esencia, de situaciones relacionadas con los problemas de transparencia, responsabilidad, control y explicabilidad. En efecto, la doctrina reconoce que los problemas de transparencia, responsabilidad, control y explicabilidad algorítmica podrían eventualmente comprometer ciertos principios éticos que gobiernan a los sistemas de IA y vulnerar los derechos humanos, los valores democráticos y el Estado de derecho ( Keats Citron, Danielle y Pasquale, 2014; Keats Citron, 2007; Kroll et al., 2017). Ello no significa que no existan otros problemas asociados con la recolección masiva de datos y su procesamiento automatizado por sistemas de inteligencia, los cuales no se abordan en su totalidad en el presente escrito debido a su formato y extensión.
La tendencia a proteger la privacidad se fortaleció a lo largo del siglo XX, pero no fue sino hasta la década de los años 90 cuando surgió la preocupación por la posible manipulación de los datos y su indebido procesamiento. En efecto, se llegó a la conclusión de que un tratamiento indebido de los datos personales podría conducir a la segmentación y discriminación de ciertos sectores de la población, teoría que fue aceptada por los países de corriente continental europea, y que los llevó a lograr avances legislativos y jurisprudenciales respecto del reconocimiento de la protección de los datos personales desde la perspectiva de la intimidad, y en particular, a establecer un régimen especial en materia de habeas data .
En América Latina la doctrina señala que la Corte Interamericanade Derechos Humanos (Corte IDH) “no se ha pronunciado de manera específica en ningún caso respecto del derecho a la protección de datos personales, a pesar de que un gran número de países sujetos a su jurisdicción lo contemplan dentro de su propio derecho interno con el carácter de derecho humano” ( Ramírez et al., 2017). No obstante, la Corte IDH (2009) reconoció la importancia del derecho a la privacidad al señalar que se “prohíbe toda injerencia arbitraria o abusiva en la vida privada de las personas, enunciando diversos ámbitos de la misma, como la vida privada de sus familias, sus domicilios o sus correspondencias”. También sostuvo que en el ámbito de la privacidad se debe estar exento e inmune a las invasiones o agresiones abusivas o arbitrarias de terceros o de la autoridad pública, bajo la idea de que la protección de la vida privada es “una de las más importantes conquistas de los regímenes democráticos” (CIDH, 2011).
En Colombia la noción de privacidad asociada a los fenómenos de la era de la información se remonta a los primeros pronunciamientos de la Corte Constitucional (1992)en los que abordó el concepto de libertad informática para referirse a la facultad de disponer de la información y preservar la propia identidad informática como “una nueva dimensión social de la libertad individual diversa”. Posteriormente, en la Sentencia T-527 de 2000 la Corte introdujo el núcleo esencial del habeas data como el derecho a la autodeterminación informativa, entendido como “una facultad de la persona a la cual se refieren los datos, para autorizar su conservación uso y circulación, de conformidad con las regulaciones legales”.
Es esta última noción la que acogió el legislador con la expedición de la Ley estatutaria 1581 de 2012, por la cual el titular tiene derecho a conocer, actualizar y rectificar sus datos personales, solicitar o revocar la prueba de la autorización otorgada, ser informado respecto del uso que se les dará y presentar ante la Superintendencia de Industria y Comercio quejas por las infracciones que se comentan.
Sin embargo, pese a que el derecho de habeas data se desprende del artículo 15 de la Constitución Política relacionado con el derecho a la intimidad, el núcleo esencial involucra otros derechos fundamentales como el derecho a la información, al buen nombre, a la no discriminación, al debido proceso y, más recientemente, a la autonomía privada y el libre desarrollo de la personalidad.
Por su parte, la reciente expedición del Reglamento General de Protección de Datos Europeo de 2016 trajo a colación la responsabilidad algorítmica cuando se da el tratamiento de datos personales. La elaboración de perfiles individualizados y la trasformación de la gobernanza de la información con ocasión de la IA tiene el potencial de aumentar la efectividad de los “pequeños empujones” y afectar la autonomía personal en la toma de decisiones ( Kaminski y Malgieri, 2019). Así las cosas, como manifestación de la autonomía personal, los citados autores sugieren que los agentes deberían tener derecho a obtener una explicación de los motivos de las decisiones automatizadas, a acceder a una auditoria algorítmica y a impugnar las decisiones automatizadas con consecuencias jurídicas significativas.
En un sentido similar, la Red Iberoamericana de Protección de Datos (2019)realizó recomendaciones en relación con el vínculo entre la ética y la protección de datos en el tratamiento automatizado realizado por sistemas basados en IA. No hay que olvidar que los datos personales tienen un contexto regulatorio bastante estricto y que, sin importar la forma de recolección, se deben respetar los intereses del titular de los datos. En otras palabras, las actividades resultantes como consecuencia del tratamiento deben respetar los derechos humanos y las garantías mínimas establecidas por las normativas locales.
Si bien las recomendaciones resaltan la importancia de respetar la libertad de expresión y de información, aún no enfatizan el respeto de la agencia humana, como sí lo hace el High-Level Expert Group on AI (2019: 16) de la Unión Europea, al indicar que para que una IA sea fiable debe respetar la agencia y supervisión humanas, garantizar la gestión de los datos personales, respetar la equidad e implementar mecanismos de auditabilidad que minimicen los efectos negativos. Así mismo, la European Commission(2020: 10) publicó un White Paper para permitir el desarrollo confiable y seguro de IA en Europa, en el que se describe la importancia de la agencia humana y la supervisión como uno de los principios ya establecidos.
Lo expuesto en Europa ha influido en el Banco Interamericano de Desarrollo (BID), el cual, mediante un informe de la iniciativa “fAIr Lac”, señaló la importancia de establecer estándares éticos para la IA mediante políticas públicas. En tal sentido, el BID propone hacer frente al problema de los datos procesados por una máquina, los cuales pueden terminar en la creación de algoritmos injustos. Igualmente, es posible pensar en una redefinición de los límites a la privacidad a fin de delimitar la falta de claridad jurídica de las decisiones que toma el sistema (M. Cabrol, N. González Alarcón, C. Pombo, Sánchez Ávalos, 2020).
Desde el punto de vista de la Organización para la Cooperación y el Desarrollo Económicos (OCDE), la tecnología debe tener valores centrados en el ser humano y la equidad. Si se comprende el funcionamiento del algoritmo y se es consciente de sus interacciones, la predicción, recomendación o decisión será más clara y fácil de entender. En todo caso, deben prevalecer el derecho, los derechos humanos y los valores democráticos, exaltados a través de la libertad, la dignidad, la autonomía, la privacidad, la protección de datos, la no discriminación, la igualdad, la diversidad, la equidad, la justicia social y los derechos laborales (M. Cabrol, N. González Alarcón, C. Pombo, Sánchez Ávalos, 2020: 14).
Читать дальше