comentarios opiniones

Desafíos éticos de la inteligencia artificial

  • diciembre 20, 2020

La inteligencia artificial (IA) es un concepto con décadas de historia. Huele a ciencia ficción: al Soy un robot Isaac Asimov; a Terminator James Cameron; en el superordenador HAL 9000 de 2001, una odisea espacial… Una visión literaria y cinematográfica que se acerca un poco más a la realidad, a la par que aderezada con dudas y expectativas.

Lejos de llegar a tecnologías, a veces apocalípticas, como las que llegaron al imaginario común a través del cine, los cómics, los videojuegos y los libros, ya existen un buen número de experiencias relacionadas con la inteligencia artificial. La mayoría son para mejorar la calidad de vida de las personas y aumentar el rendimiento laboral mediante la reducción de tiempo y esfuerzo, todo gracias al uso de máquinas capaces de aprender y resolver problemas mecánicos de recolección y análisis de datos.

Mucho se ha escuchado sobre el coche autónomo, el reconocimiento facial y los algoritmos que pueden predecir enfermedades futuras o incluso pandemias como el coronavirus que tenemos actualmente.

Todo esto ya es una realidad, aunque todavía está en construcción. Y en la mayoría de los casos es necesario personas controlan el funcionamiento de las máquinas para revelar no solo su buen o mal funcionamiento sino también los problemas éticos y morales que plantea, e incluso las posibles violaciones de derechos.

Por eso se creó la OdysseyIA en España, Observatorio del Impacto Social y Ético de la Inteligencia Artificial, una organización sin fines de lucro cuya misión es «observar, prevenir y mitigar los desafíos del uso de la inteligencia artificial como oportunidades disruptivas», como lo expresó su presidenta, Idoia Salazar.

A ella asisten empresas, universidades, instituciones y expertos en este campo que tienen a su cargo garantizar el uso adecuado de la inteligencia artificial en diferentes áreas de trabajo: medicina, defensa, educación, investigación y RSE.

Ejemplos para aprender

Salazar da dos ejemplos que justifican la necesidad de crear y destacar entidades como la OdysseyIA. Uno es el de Amazonas, que tuvo que abandonar el sistema de inteligencia artificial que mecanizaba y tamizaba la selección de recursos humanos.

“El algoritmo se ‘entrenó’ con datos de los diez años anteriores, en los que la mayoría de los blancos tenían menos de 40 años, por lo que empezó a discriminar de forma no intencionada por motivos de género, raza y edad”, explica también el codirector de Ética y Responsabilidad de OdiseIA.

Google lanzó un programa de inteligencia artificial que confundió y etiquetó a las personas de piel oscura como monos. Un sesgo racista que ya ha logrado abordar.

El segundo caso fue de Google, que dirigía un programa de inteligencia artificial que confundía y etiquetaba a las personas de piel oscura como monos. Un sesgo racista que ya ha logrado abordar.

Ninguno Microsoft logró deshacerse de: hace unos años incluía un chatbot en Twitter para la interacción coloquial con la gente, pero los mensajes que produjo terminaron siendo racistas, sexistas y xenófobos, y el proyecto fue cancelado.

«Hay un buen número de investigaciones en el sector, y hay mucha conciencia entre los profesionales sobre posibles abusos, pero no se conocen, porque hasta el momento sus opiniones se han quedado en el Congreso. Vimos una necesidad práctica de llevar casos reales al suelo», dijo. Salazar.

Algo que la plataforma ya está implementando con diversas sesiones informativas, formaciones y asesorías de organismos públicos y privados. De hecho, para garantizar su independencia y promover estas acciones informativas, OdiseIA lanzó una campaña recaudación de fondos que estará activo hasta el 7 de abril.

“Nuestra contribución será especialmente importante una vez que Estrategia Nacional de Inteligencia Artificial en España, porque desencadenará multitud de acciones que afectarán a nuestra sociedad durante décadas ”, comenta también un profesor de la Universidad CEU San Pablo.

Stand by estrategia

Este plan de acción ya ha sido elaborado por el Gobierno, que ha presentado su propio lineas estrategicas hace más de un año, junto con un mapa interactivo que muestra las empresas que trabajan en el campo de la IA.

De hecho, la mayoría de los agentes de este sector han estado esperando en este primer semestre del año un texto con planes de acción concretos, que se incluirán en el próximo Plan Nacional de Investigación y Desarrollo. Pero, como ha ocurrido en casi todos los ámbitos, su avance se ha visto frenado por la crisis del coronavirus.

Según el texto preliminar, la estrategia de inteligencia artificial declarada debe cubrir áreas que van más allá del entorno para la investigación y el desarrollo y el desarrollo. Por ejemplo, en mercado laboral, salud, servicios o dentro de un modelo educativo. “Es importante introducirlo para que nos capacitemos en este sentido desde una edad temprana y así sepamos cómo usar este tipo de tecnología a lo largo de nuestra vida”, dice Mónica Villas, consultora de nuevas tecnologías, exdirectora de IBM y directora de capacitación en OdiseIA.

Un punto que necesita desarrollarse cuanto antes en España, un país donde sus alumnos ‘patinan’, especialmente en asignaturas científicas y lógica matemática, según un informe PISA.

“Seguimos dando alta prioridad a la memorización, y no a las habilidades que consisten en entrenar algoritmos, trabajar con tecnologías … Es importante mejorar, sin duda”, explica Villas.

El texto preliminar también se refiere a la importancia de alinear la estrategia con el logro de metas Objetivos de desarrollo sostenible (ODS) Naciones Unidas, para que la IA pueda servir como una «tecnología de apalancamiento» o un transformador de políticas.

Por otro lado, esto sugiere que debe utilizarse como una “nueva ventaja competitiva” en la que colaboran centros de investigación y universidades, pero también Pymes, grandes empresas y agentes sociales, entre otros. Objetivo: abordar nuevos modelos de innovación y promover la transferencia de conocimiento que posibilite el fortalecimiento de la economía española.

En general, ya se han puesto en marcha planes de inteligencia en comunidades autónomas como Cataluña o la Comunidad Valenciana. “Sería lógico tener uno nacional que nos englobe a todos. Y no debemos basarlo únicamente en la normativa europea de inteligencia, incluida en el Reglamento General de Protección de Datos (RGPD) ”, dice Salazar.

Y explica su tesis: “Todo país debe ser consciente de que aspecto cultural es necesario cuando nos ocupamos de estos temas que tienen un impacto social ”.

Pone un caso concreto de un coche autónomo: «El Instituto de Tecnología de Massachusetts (MIT) desarrolló una herramienta, una máquina moral, un algoritmo diseñado para encontrar un código ético internacional de acuerdo con la respuesta de miles de personas en todo el mundo a diferentes Dilemas éticos sobre quién podría verse afectado por un posible accidente. Pero se llegó a la conclusión de que no hubo una explicación consensuada «.

En el caso concreto de España, cree que el desarrollo de estas tecnologías es necesario legislación precisa en casos de uso. «Si esto se hace de una manera demasiado general, lo más probable es que la tecnología no evolucione».

Algo que no sería apropiado dado pronósticos futuros que se están considerando en este campo: van desde importantes mejoras de productividad hasta la creación de puestos de trabajo altamente cualificados, pasando por subvenciones ya asignadas a nivel europeo para impulsar este tipo de proyectos.

No Comments Found

Leave a Reply