Tecnología

La Inteligencia Artificial y sus riesgos

La Inteligencia Artificial es cada vez más real y está cada vez más presente en nuestro día a día. ¿Qué riesgos implica? ¿Cuál puede ser el impacto en los distintos ámbitos de la vida? Compartimos extractos de una extensa entrevista con un experto, sobre el lado oscuro de la IA.
Pinterest LinkedIn Tumblr

La llegada del ChatGPT y la posibilidad de usarlo hace sentir en el ambiente un boom de la Inteligencia Artificial, aunque el reconocimiento facial, la predicción y el uso de datos para tomar decisiones ya existía. La verdad es que la Inteligencia Artificial es cada vez más real y está cada vez más presente en nuestro día a día. ¿Qué riesgos implica? ¿Cuál puede ser el impacto en los distintos ámbitos de la vida?

Ricardo Baeza Yates, director de Investigación en el Instituto de IA Experiencial de la Universidad Northeastern en Silicon Valley, dio una larga entrevista al medio digital Bloomberg Línea sobre el rumbo y los retos para la Inteligencia Artificial. En la extensa entrevista aborda una serie de tópicos relacionados con el lado oscuro de la tecnología y su impacto en el ámbito laboral y los negocios.

Respecto a la inteligencia artificial y el trabajo, el experto indica que “hay cosas que los algoritmos no pueden hacer. Hay cosas en las que los seres humanos somos únicos y seremos únicos por mucho tiempo. Es decir, entender las cosas de verdad, el sentido común… en este caso yo plantearía un objetivo distinto: ¿Cómo hay que usar la IA? Yo la usaría para complementar a nosotros mismo, por ejemplo, robots que hicieran todos los trabajos que nadie quiere hacer, los trabajos que tienen que ver con la fuerza física, los trabajos aburridos”.

Indicó que en los negocios “el impacto es gigantesco, porque hay miles de sistemas que usan IA a diario, empezando por los sistemas de recomendaciones de comercio electrónico, predecir las palabras que vas a escribir, casi todas la app de los móviles, el reconocimiento facial (para el bien y para el mal) todo eso ya existía, la novedad es el chatGPT”.

Agregó que la IA “puede mejorar la productividad, hacer más cosas de manera más rápida y como consecuencia eso puede tener efecto en la rentabilidad”.

El uso de la Inteligencia Artificial supone también muchos planteamientos éticos. El experto considera que “no debería ser usada para tomar decisiones que afectan a las personas en el ámbito educativo, financieros, de justicia… porque es un problema de ética. Quiero decidir quienes deberían recibir una beca o un préstamo o quiénes deberían ser liberados o declarados culpables en un juicio. El enfoque es que yo uso los datos de otras personas, de otros juicios, para decidir sobre tu caso. Cada persona es única, con un contexto único, con unas características únicas. La justicia es personalizada, las decisiones sobre las becas y las financieras tienen que ser personalizadas, los datos sólo modelan parte del problema y acaban generando discriminaciones”, señala.

¿Se debe regular la Inteligencia Artificial?

Sin embargo, opina que no debe haber una agencia reguladora de la Inteligencia Artificial. “Es un error regular el uso de una tecnología. Porque sería regular el uso del martillo: Claro, el martillo puede ser usado para cosas malas y cosas buenas. Imagínate que para cada tecnología nueva tengamos que preparar otra regulación y esa regulación tendría que ser coherente con la anterior”, explica.

Respeto a las consideraciones éticas que deben tener en cuenta las empresas al utilizar la IA, dijo que hay varias recomendaciones de distintos colectivos. La UNESCO sacó en noviembre de 2021 unas recomendaciones; el octubre del año pasado, la Casa Blanca hizo un listado de cinco principios para este tipo de sistemas y la ACM (Association for Computing Machinery), la mayor asociación informática del mundo, anunció una nueva recomendación a finales de 2022, que reemplaza la del año 2017, una de las primeras sobre el uso responsable del algoritmo.

Esos principios son: Legitimidad y competencia, Minimización del daño, Seguridad y privacidad, Transparencia, Interpretabilidad y explicabilidad, Matenibilidad, Contestabilidad y auditabilidad, Rendición de cuentas y responsabilidad y Limitaci+on del impacto ambiental.

Explicó que “este código de conducta quiere asegurar que antes de adoptar la tecnología de IA, las empresas hagan análisis de impacto ético y que comprueben que el potencial beneficio (A las personas y al medio ambiente) supera el potencial daño. También hay puntos que tienen que ver con la transparencia, con el poder reclamar cuando hay algún problema, con la posibilidad de rendición de cuentas y la responsabilidad”.

En Silicon Valley el investigador, Ricardo Baeza Yates, se dedica a los sesgos en la Inteligencia Artificial, no sólo aquellos inherentes a las personas, sino también los que ocurren dentro de los sistemas tecnológicos y la web.

Lee también: La EXATEC que cambió las transacciones digitales con Inteligencia Artificial

Los Comentarios están inhabilitados