De acuerdo con este mismo organismo, un ejemplo aislado de uso actual de esta tecnología por parte de la Administración existe en el sector defensa: “En Colombia, la Alianza Data-Pop usa datos de delincuencia y transporte para predecir los puntos álgidos de crimen en Bogotá. La policía se despliega entonces a los lugares y tiempos específicos donde hay mayor riesgo de crimen” ( OECD, 2019). Esta aplicación todavía no se ha evaluado en términos de resultados sobre mejor prevención de la delincuencia, pero se encuentra en pilotaje por la Policía. El caso ya mencionado de la administración tributaria es el otro ejemplo del sector público. Pese a estos usos, la Administración colombiana aún parece no estar lista para estos cambios y solo de forma parcial está adoptando algunas de las herramientas de IA, pero sin que medie debate alguno acerca de las altas externalidades sociales, éticas y económicas, negativas y positivas, asociadas a la producción y explotación de estos recursos por parte de organismos y entidades administrativos.
2.2. RETOS DE LA INTELIGENCIA ARTIFICIAL PARA LA SOCIEDAD Y PARA LA ADMINISTRACIÓN PÚBLICA
El desarrollo de una Inteligencia Artificial de tipo general significaría para algunos una suplantación 50o el dominio de los seres humanos por máquinas (Harari, 2018). Más allá de estas preocupaciones, relacionadas con la Inteligencia Artificial fuerte o general 51, vale la pena examinar preguntas cercanas al tipo de inteligencia que está diseñada para resolver un problema específico, que surgen de sus usos por parte de las administraciones públicas y para las cuales el Derecho administrativo no parece estar preparado. En este orden de ideas, es posible interrogarse, por ejemplo, acerca del ejercicio de actividades administrativas por sujetos que sean máquinas o programas de computador programados para actuar de forma autónoma. O quién debe responder por los daños causados por una Inteligencia Artificial o robot, esto es, si estas tecnologías constituirían un centro de imputación distinto o si, por el contrario, comprometerían la responsabilidad del funcionario que los programa y del sujeto de Derecho público dentro del cual cumplen sus misiones. El uso de la Inteligencia Artificial por las administraciones públicas hace parte de una compleja nueva realidad que ya está siendo discutida en varios países; encontrándose problemáticas relacionadas con los derechos de los ciudadanos, la responsabilidad y cuestiones sociales 52y éticas (Turner, 2018). ¿Serán estas máquinas o programas agentes morales? (Etzioni & Etzioni, 2017). Aunque esto puede parecer todavía especulativo, la realidad enseña que no lo es y, en el caso de los carros autónomos y los accidentes causados por los mismos, se ha presentado la necesidad de obtener respuestas.
Autores como Andrews (2018) señalan seis tipos de retos que los algoritmos plantean a la Administración pública: (1) el error de selección algorítmico, que se refiere a los sesgos y prejuicios que se han visto reflejados en programas de reconocimiento facial, de revisión de elegibilidad de individuos para programas sociales y en materia de riesgo de criminalidad y reincidencia (con relación a estos problemas, se denuncia racismo y sexismo, derivado en parte de los sesgos de programadores y en parte a los sesgos en la información de bases de datos históricos con los que se alimentan y aprenden las máquinas); (2) el uso de algoritmos para evitar la ley, ayudando al usuario a hacer trampa en controles de emisiones, aplicaciones de transporte ilegales o de evasión de cámaras de tránsito y de seguridad; (3) la manipulación algorítmica en elecciones democráticas y en toma de decisiones individuales de varios tipos, como es el caso de guerra psicológica de Facebook y Cambridge Analítica 53; (4) la propaganda algorítmica dirigida por programas que masifican mensajes políticos y falsas noticias para incidir en las preferencias y en los comportamientos de los ciudadanos, como es la incidencia de Rusia en las pasadas elecciones estadounidenses; (5) la contaminación de marca por algoritmos a través de la publicidad personalizada y programada de acuerdo con el comportamiento en línea, y (6) las áreas desconocidas de los algoritmos, en la medida en que estos aprenden y determinan de forma autónoma su proceso de toma de decisiones. Por ende, no es posible conocer con exactitud con qué criterios están llegando a los resultados que arrojan, al ser demasiado complejos para ser controlados y para activar procesos de rendición de cuentas de sus decisiones 54(Andrews, 2018, pp. 300-301).
Se discute además el futuro del gobierno electrónico con la aparición de interacciones por voz y aplicativos móviles más sofisticados, pero también temas relacionados con la protección y la privacidad de los administrados (Agarwal, 2018). Se examina cómo proteger la privacidad de los usuarios sin perder la eficiencia en la prestación de servicios; evitar mayores sesgos humanos al incorporarlos en un algoritmo, esto es, casos de discriminación, y mantener un balance entre eficacia de las soluciones y la humanización del trato (sobre todo en servicios como la salud). Con relación a los sesgos al identificar o clasificar personas para diferentes fines, el ejemplo conocido está dado por la tendencia de algoritmos de uso de la policía de los Estados Unidos que consideran a los afroamericanos como sospechosos de ser criminales. Aunque se está trabajando en la corrección de estos sesgos, la tarea no es sencilla. El desafío de tratar de manera imparcial a las personas parece ser particularmente difícil para los algoritmos que se basan en estadísticas pasadas y probabilidades. Sin embargo, las administraciones deben ser imparciales y respetar la igualdad de derechos, la dignidad humana y la presunción de inocencia, entre otros principios.
Un segundo reto relacionado con la equidad económica y social consiste en asegurar que las tecnologías disruptivas no profundicen las brechas sociales existentes, excluyendo a quienes no tienen acceso a internet o a quienes son analfabetas digitales. Existe sin embargo la posibilidad de emplear estas tecnologías como instrumento de cohesión social, como ha sucedido en la Colombia rural y en otras zonas alejadas con el internet vía redes de telefonía móvil. Conforme a los fines del Estado colombiano 55, la Administración deberá encontrar mecanismos para compensar las desigualdades digitales, de forma que todos los ciudadanos puedan acceder a nuevas tecnologías en igualdad de condiciones. En el área de las políticas sociales, en especial la salud y el cuidado de poblaciones vulnerables, el uso de Inteligencia Artificial puede presentar una dificultad mayor al interactuar con humanos y generar desconfianza en los usuarios de manera que tendría el reto de ganarse la confianza pública y evitar tanto la desconfianza hacia los robots, como el miedo a que los humanos queden al margen (pérdida de empleos, la disminución de las interacciones personales y aislamiento) (Stone et al ., 2016) 56.
Ante los vacíos regulatorios existentes, las empresas de tecnología han creado marcos éticos y de buenas prácticas para autorregularse. Asimismo, existe una asimetría de información entre las empresas privadas y las autoridades regulatorias y una asimetría de poder entre gobiernos y la industria de la tecnología, cada vez más inclinada a favor de estas últimas, que tienen más poder económico que muchos países. Las empresas están siendo exitosas en generar el discurso sobre la tecnología computacional (Andrews, 2018). Sin embargo, en la medida en que las empresas anteponen el interés de sus accionistas al interés general, será necesario que los gobiernos regulen las nuevas situaciones creadas por estas tecnologías. Se presenta, así, un alto riesgo de captura de la Administración pública y del regulador. Esto es particularmente grave en países como Colombia, donde ya existe debilidad de las instituciones frente a los grupos de interés y las grandes empresas de tecnología.
Читать дальше