14/03/2017 Barcelona

Los algoritmos de la inteligencia artificial deben ser "transparentes" en sus decisiones

Así lo indicó Ramón López de Mantaras, director del Instituto de Investigación de Inteligencia Artificial (IIIA), al respecto de los resultados de un encuentro que trató el uso ético de esta tecnología.

Por Melisa Avolio

Los algoritmos de la inteligencia artificial (IA) deben ser "transparentes" en sus decisiones, lo que significa que puedan ser capaces de brindar una "explicación entendible" sobre los criterios seguidos para arrojar una determinada sugerencia, explicó un especialista en el tema al respecto de los resultados de un encuentro en Barcelona que trató el uso ético de esta tecnología.

"Por ejemplo, uno de los problemas de los algoritmos de los buscadores de Internet es que son opacos y, justamente, nosotros exigimos que sean transparentes. Es decir, que puedan dar a conocer los criterios que siguieron (sobre miles de millones de datos) para tomar una determinada decisión", graficó Ramón López de Mantaras, director del Instituto de Investigación de Inteligencia Artificial (IIIA), en diálogo telefónico con Télam. 

López de Mantaras fue uno de los promotores del encuentro sobre el uso ético y adecuado de la IA, que tuvo lugar este martes y miércoles en la ciudad española de Barcelona con la presencia de más de 80 especialistas de todo el mundo provenientes del campo de la tecnología, sociología, ciencias políticas y derecho.

"Debatimos sobre el estado actual de la IA, los desarrollos futuros y los aspectos de los riesgos derivados. Además, elaboramos un borrador sobre el desarrollo adecuado y utilización de esta tecnología en Europa, que en una semana estará disponible en una plataforma wiki (colaborativa) para que todas las personas puedan hacer sugerencias", afirmó sobre el evento convocado por el centro de debate científico "B·Debate".

El texto -aún sujeto a cambios y sugerencias- surgido del encuentro distingue dos tipos de inteligencia artificial: la que está "basada en el conocimiento", aplicada a partir de finales de los setenta, que intenta modelar el proceso de conocimiento humano en términos computacionales.

Con las nuevas tendencias, como el aprendizaje automático, que se basa en analizar miles de millones de datos, aparecen como cajas negras y ni quienes los programaron a veces pueden saber por qué un algoritmo llega a determinadas conclusiones


Ramón López de Mantaras, director del Instituto de Investigación de Inteligencia Artificial (IIIA)
Luego, menciona la IA "basada en datos", también conocida como aprendizaje automático (machine learning), que comenzó a aplicarse en la última década y parte de una gran base de datos -sobre la actividad humana- procesados mediante algoritmos para luego extraer patrones para varios fines (hacer predicciones, completar datos parciales o emular comportamientos humanos).

"Con la IA clásica había formas de inspeccionar los criterios que seguía el software para tomar una determinada decisión. Pero con las nuevas tendencias, como el aprendizaje automático, que se basa en analizar miles de millones de datos, aparecen como cajas negras y ni quienes los programaron a veces pueden saber por qué un algoritmo llega a determinadas conclusiones", sostuvo López de Mantaras.

Por eso, enfatizó en que esa situación debe cambiar: "Las nuevas tendencias deben ser capaces de dar explicaciones, lo cual es posible de lograr desde el punto de vista científico y técnico".

Lo que también significa que, "cuando se generen aplicaciones basadas en IA, ya deben tener incorporada la capacidad de que el software brinde explicaciones", agregó.

Por otro lado, el especialista habló de los chat-bots (sistemas informáticos para mensajería que emulan el comportamiento humano) y la importancia de la "identidad". En otras palabras, la necesidad de dejar en claro si una interacción proviene de un ser humano o de un sistema de IA.

Según el borrador del documento al que accedió Télam, "existe una creciente preocupación por los chat-bots de IA y otros tipos de sistemas de mensajería automática que operan en Internet y en las redes sociales, diseñados para la manipulación de la opinión política, la desinformación a través de la propagación de hechos falsos o la extorsión".

Estos chat-bots pretenden ser seres humanos -continúa- y pueden obtener y propagar datos sobre la identidad de las personas con quienes se contactan. En este punto, la IA permitió que estos chat-bots sean lo suficientemente realistas como para que algunos usuarios no sean capaces de distinguirlos.

Por eso, López de Mantaras afirmó que una posible solución a este problema es exigir que siempre esté claro de dónde proviene la interacción.

 


Otro de los puntos importantes que se trataron -sostuvo el especialista- es que el entusiasmo creciente por los éxitos de la IA (como cuando realiza diagnósticos médicos con gran acierto o gana partidos de póker), lleva a veces a pensar que "esta tecnología lo puede hacer todo, lo que es un error enorme porque todos los sistemas dependen de la inteligencia humana".

Uno de los casos más conocidos en este punto tiene que ver con la posibilidad de que las empresas reemplacen a sus empleados por sistemas de IA o robots.

Al respecto, expertos como Bill Gates, Elon Musk y Stephen Hawking advirtieron en diversas ocasiones sobre los posibles peligros de estos avances, que van desde la pérdida de puestos de trabajo a la sustitución de personas en otras tareas propias de los humanos y el riesgo que la inteligencia artificial quede fuera de control.

En este punto, López de Mantaras recalcó que "todos los sistemas de IA dependen críticamente de la inteligencia humana. Los sistemas basados en el conocimiento modelan el conocimiento de la experiencia humana, y los sistemas de IA basados en datos se basan fundamentalmente en datos del comportamiento humano. Por lo que, se debe enfatizar que el conocimiento humano debe continuar siendo enseñado, desarrollado y ejercido".