La búsqueda de Urtubey de embarazo adolescente, ejemplo del mal uso de la IA

Desde la Universidad Nacional de Salta (UNSa), pese a que están a favor que se continúe trabajando en el desarrollo de la Inteligencia Artificial (IA), señalan que se deben evaluar cuáles son sus riesgos y consecuencias.

Ejemplificaron el mal uso de IA con el sistema que el ex gobernador Juan Manuel Urtubey expuso a través de un canal de televisión nacional, a través del cual se podrían detectar embarazos adolescentes. 

La consulta de Nuevo Diario sobre la IA, surgió en el marco de visibilización de la lucha de la Coneau Histórica, dónde los docentes de la Facultad de Ciencias Exactas, Javier Trenti y Jorge Ramírez,  dieron la charla "Es la inteligencia artificial una amenaza?

Semanas atrás, Elon Musk y Steve Wozniak, cofundador de Apple, a través de una carta abierta pidieron pausar el desarrollo de los sistemas de inteligencia artificial más potentes durante seis meses para garantizar la seguridad.

En este contexto durante la charla, Javier Trenti, quien es doctor y profesor de la licenciatura en Sistema de la Facultad de Ciencias Exactas, hizo referencia a la historia de la Inteligencia Artificial, aspectos técnicos y problemas filosóficos y la posibilidad de adquirir conciencia de que eso tenga sentido o no.

En tanto, Ramírez, remarcó que la carta de Musk y Wozniak, "habla de posibles futuros en cierto plazo indeterminado, pero no inmediato. El uso de la inteligencia artificial acarrea riesgos que se soslayan completamente. En ningún caso se plantea que se deje de trabajar en inteligencia artificial, pero habría que dar una mirada de cuáles son esos riesgos y que traen consecuencias que no están siendo tenidas en cuenta".

Recordó al ex gobernador Juan Manuel Urtubey, cuando planteó que a través de un sistema de IA se podía dar nombre, apellido y domicilio de la persona predestinada a embarazarse. "Esa es una ilustración del mal uso de la IA y es algo que ocurre en muchos lugares. Hay sistemas que asesoran a jueces penales en otros países para decidir el futuro de una persona que está acusada. Se basan en sistemas que pueden determinar cuál es la probabilidad de reincidencia de una persona".

Remarcó que expertos que analizaron estos sistemas indican que "tienden a sesgar en contra de minorías raciales, de menor recurso, clase trabajadora, etc., y como lo mismo se usa para dar crédito, negar accesos a trabajos, despedir gente".

No obstante, Ramírez indicó que lo más novedoso en los últimos tiempos son las inteligencias artificiales generativas, como el ChatGPT3,  los que crean ilustraciones e imágenes a partir de un texto, los que crean música y diseños.

"Ya hemos visto políticos haciendo uso de la IA, como Rodrigo de Loredo que a través del ChatGPT3 rechazó el juicio político contra la Corte Suprema, y lo más complicado es que le dio la razón a ChatGPT, justificó su postura en base a una IA que no fue programada para decir la verdad, sino para decir cosas razonables, con un léxico compatible con el del ser humano. No está pensado que este sistema den una verdad absoluta, aparte que son programados de acuerdo a las bases de dato. El sesgo sale que el origen de estas IA es generado por humanos y ahí está el punto de que no se sabe para dónde van a ir”, explicó el docente.

Agregó que: “si una persona es pobre, vive en determinado barrio y de un grupo étnico, no quiere decir que sea una característica intrínseca de esa persona”.

Sobre CharGPT, Ramírez señaló que muchas veces acierta en lo que se le pide, y otras “versea, si no sabe inventa, puede citar trabajo que no existen con tono de alguien que parece saber”.

 

 

 

 

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Volver al botón superior