Control mediante algoritmos

Inteligencia Artificial para llevar a cabo la Agenda 2030 de la ONU

Inteligencia Artificial
|

La Unión Europea ha legislado recientemente la Inteligencia Artificial (IA) dentro del marco de la Cuarta Revolución Industrial patrocinado por el Foro Económico Mundial. Según su presidente, Klaus Schwab, esta sería la fusión entre entes biológicos, dispositivos tecnológicos y mundo digital.

Ya que nos llevan directos a este nuevo mundo sin que pregunten a los ciudadanos qué diantres queremos, se han preocupado de legislar todo lo relacionado con su uso «ético» aunque, en palabras de mi buen amigo Miklos Lukacs, sea la «dictadura del algoritmo».

Los cambios que estamos viviendo desde el inicio de la crisis sanitaria hace ya año y medio van encaminados en este sentido. Lo que hoy nos venden como Agenda 2030 (Objetivos de Desarrollo Sostenible) no es más que el plan de control global y privatización definitivo. Para ello, se valdrán de esa IA con el objetivo de analizar y determinar los comportamientos de los ciudadanos.

Es evidente que todo avance tecnológico tiene sus ventajas, eso nadie lo niega, el problema es quién lleva las riendas de esos avances y cuáles son las verdaderas intenciones.

Es un tema realmente apasionante, complejo y enrevesado como para tratarlo en un solo artículo. Nos gustaría llamar la atención sobre cómo lo están presentando ya algunas instancias oficiales. Es muy importante comprender el discurso, el relato que usan oficialmente para implantar una serie de medidas que supondrán menos liberad individual y colectiva, todo siempre bajo las conclusiones de una Inteligencia Artificial que estará al servicio de quienes la diseñen, no del bien común.

A continuación pueden leer un artículo que sirve de muestra para lo que está por venir:

¿Puede (y debe) la Inteligencia Artificial ser justa, ética e inclusiva?
Por Raúl Casado

Tachada muchas veces de sexista o racista, los expertos consideran que la Inteligencia Artificial (IA) puede y debe ser también ética, justa e inclusiva, además de una potente herramienta para alcanzar muchos de los Objetivos de Desarrollo Sostenible plasmados en la Agenda 2030 de Naciones Unidas.

Científicos y tecnólogos se han embarcado en ambiciosas iniciativas para tratar de conciliar la ética y la inteligencia artificial; para poner las modernas tecnologías al servicio de la humanidad y no al contrario; y para que estas herramientas se desarrollen con criterios basados en el respeto a los derechos humanos.

La investigadora Ángeles Manjarrés, profesora en la Escuela Técnica Superior de Ingenieros Informáticos de la Universidad Nacional de Educación a Distancia, enfoca ahora una parte importante de su tarea académica a conocer el impacto de la inteligencia artificial (IA) en la Agenda 2030 de la ONU y la contribución de esa moderna tecnología a alcanzar esos objetivos.

Las investigaciones revelan que la IA puede contribuir de una manera positiva a alcanzar el 79 por ciento de los Objetivos de Desarrollo Sostenible de la ONU, pero también actuar como «inhibidor» en el 21 por ciento restante, acentuar las deficiencias actuales y generar más desigualdades y una mayor degradación ambiental.

Para evitarlo, investigadores de diferentes disciplinas han impulsado la iniciativa «IA4Eq» (Inteligencia Artificial para la Equidad), con el fin de evitar que muchos de los riesgos asociados a las nuevas tecnologías se acentúen y magnifiquen en el caso de la inteligencia artificial.

Manjarrés ha observado que todas las revoluciones tecnológicas han demostrado a lo largo de la historia su potencial para mejorar las condiciones de vida de las personas, «pero también para generar fuertes desigualdades, pobreza y exclusión» y ha alertado de que la desigualdad a causa de la revolución digital se podría acentuar de un modo «sin precedentes» con la Inteligencia Artificial, debido al desigual acceso a sus beneficios.

La investigadora ha destacado sin embargo ejemplos de cómo la Inteligencia Artificial está ayudando a cumplir los Objetivos de Desarrollo Sostenible de la ONU en condiciones de escasos recursos (como el uso de drones para la agricultura en zonas muy desfavorecidas).

La sobreexplotación de recursos y la degradación ambiental tienden a afectar más a los países con las rentas más bajas, ha observado, y aunque ha advertido por ejemplo que el «big data» requiere recursos computacionales y energéticos masivos, insiste en el papel decisivo de la Inteligencia Artificial aplicada a las soluciones de los grandes retos de la humanidad, como la pobreza, la exclusión, el cambio climático, la gestión del agua o la prevención de crisis humanitarias.

Integrar la ética en los procesos I+D

«Las aplicaciones de IA pueden incorporar valores si se integra la ética en los procesos de I+D, traduciéndose a prácticas de ingeniería y codificándose en algoritmos», ha manifestado Ángeles Manjarrés, pero a su juicio en la actualidad está «sesgada» hacia cuestiones que son relevantes para las clases acomodadas de los países con rentas altas.

La investigadora ha citado numerosos casos de éxito de la inteligencia artificial para prevenir o evaluar crisis ambientales o humanitarias, para identificar colectivos vulnerables, para planificar servicios de protección social o para dar soporte a procesos de democracia participativa.

Simón James Pickin, profesor de la Facultad de Informática de la Universidad Complutense de Madrid, ha defendido un necesario acercamiento del sector privado y el público y un papel más activo del Estado en este ámbito, además de acciones para frenar el monopolio de los «gigantes» tecnológicos.

Pickin ha observado que las expectativas de los sectores con ánimo de lucro y sin ánimo de lucro son «inevitablemente distintas», pero ha asegurado que existen ya muchas experiencias que demuestran que la creación conjunta de un valor social a través de la innovación tecnológica es posible.

Precisamente la Comisión Europea ha aprobado ya una propuesta para regular la Inteligencia Artificial, y Celia Fernández Aller, abogada y profesora de la Escuela Técnica Superior de Ingeniería de Sistemas Informáticos de la Universidad Politécnica de Madrid, ha observado que se trata de la primera regulación de la IA a nivel mundial «que tiene como base los derechos humanos y valores que defiende la Unión».

Fernández Aller ha explicado que la Inteligencia Artificial plantea importantes retos en su implantación, como los sesgos, la falta de transparencia y el impacto en los derechos humanos, especialmente en la privacidad, y ha valorado por ello que la propuesta europea incluya la existencia de un organismo encargado de supervisar los cumplimientos.