Inteligencia Artificial ¿Buena o mala para la humanidad?

Por: Nora Estrada

Mucho se ha hablado en el último año sobre la Inteligencia Artificial (IA), una tecnología en rápida evolución que ha estado bajo investigación durante décadas. Hemos visto la presentación de chatbots que escriben artículos científicos, resúmenes legales y noticias, provocando escalofríos en la columna vertebral de todos los científicos, abogados y periodistas, pero, ¿Realmente deberíamos preocuparnos?

Por otro lado, algunos postulan que, si se usa adecuadamente, la IA puede ser una revolución para la educación, el periodismo, la ciencia y otras áreas del conocimiento humano. La presidenta de la FTC, Lina Khan, dijo recientemente que la IA puede ofrecer una innovación crítica, pero también «impulsar el fraude y automatizar la discriminación».

La inteligencia artificial es la habilidad de una máquina de presentar las mismas capacidades que los seres humanos, como el razonamiento, el aprendizaje, la creatividad y la capacidad de planear. 

La IA permite que los sistemas tecnológicos perciban su entorno, se relacionen con él, resuelvan problemas y actúen con un fin específico. La máquina recibe datos (ya preparados o recopilados a través de sus propios sensores, por ejemplo, una cámara), los procesa y responde a ellos.

Los sistemas de IA son capaces de adaptar su comportamiento en cierta medida, analizar los efectos de acciones previas y de trabajar de manera autónoma. 

Algunas tecnologías con inteligencia existen desde hace más de 50 años, pero los avances en la potencia informática, la disponibilidad de enormes cantidades de datos y nuevos algoritmo​s​ han permitido que se den grandes avances de IA en los últimos años. 

La IA tiene un papel central en la transformación digital de la sociedad.

Se espera que sus aplicaciones futuras impliquen grandes cambios, pero la IA ya está presente en nuestras vidas. 

“La inteligencia artificial es software. La tecnología se basa en matemáticas que pueden hacer cálculos complejos que los algoritmos llevan un paso más allá con grandes modelos de lenguaje (LLM)”, dijo Hector Palacios, científico investigador de ServiceNow Research. 

Indicó que antes ya no existe la certeza de que cada texto recibido provenga de un ser humano.

“Pero eso ya no es cierto”, dice Palacios quien trabaja en investigación fundamental y aplicada sobre Inteligencia Artificial (IA). “Ahora tenemos máquinas que pueden generar texto, lo que significa que si tengo dinero, puedo generar texto que puede generar dinero, o para desinformación o manipulación”.

“Por ejemplo, el Comité Nacional Republicano publicó un anuncio de 30 segundos la semana pasada en respuesta al anuncio del presidente Biden de que se presentaría a la reelección. El anuncio mostraba imágenes falsas de China invadiendo Taiwán y 80 mil inmigrantes invadiendo la frontera sur, todo intercalado con imágenes inquietantes de disturbios cívicos.

“Un descargo de responsabilidad apenas perceptible a lo largo de la esquina superior izquierda de la pantalla decía: ‘Construido completamente con imágenes de IA’”, explicó.

Chris Dede, investigador sénior de Harvard Graduate School of Education and Associate Director of Research for the National AI Institute for Adult Learning and Online Education, dijo que les advierte a sus alumnos que piensen en la IA como un socio, no como un sustituto, una idea a la que llegó cuando era un joven estudiante graduado que amaba Star Trek.

“Cuando leo un ensayo de estudiante que es demasiado bueno para creerlo, no me preocupo mucho por eso, el plagio siempre ha existido por mucho más tiempo que los LLM”, comentó.

Dede ejemplific​ó​ que en Star Trek, la próxima generación, tienen al Capitán Picard, el sabio capitán humano de la nave estelar, y luego tiene a Data que parece una persona, pero en realidad es un androide, una máquina.

“Los datos son capaces de absorber enormes cantidades de datos en cuestión de segundos y hacer lo que se llama ajuste de cuentas, que es predicción calculada. El Capitán Pickard tiene una especie de sabiduría aplicada al juicio, por lo que él es el que está a cargo de la nave estelar y usa las predicciones calculadas de Data para ayudarlo a tomar buenas decisiones”, señaló.

Explicó que Data aumentó la experiencia humana de Picard y los dos socios hicieron cosas juntos.

“Pero no podrían hacer cosas solos o por separado”, expresó.

Dede dijo que para ilustrar esto de una manera menos fantástica, hay especialistas en cáncer, oncólogos que ahora tienen socios de IA. 

“La IA puede hacer algo que ningún especialista en cáncer puede hacer. Puede escanear todas las mañanas  mil 500 revistas médicas en línea y ver si hay algo nuevo sobre el tratamiento de un paciente en particular. Puede escanear registros médicos en todo el mundo de pacientes similares que se someten a una variedad de tratamientos y obtener consejos sobre lo que funciona y lo que no funciona”, dijo.

“Pero nunca querrá que la IA tome las decisiones porque el médico sabe cosas que la IA no sabe. El médico sabe del dolor y de la muerte. El médico entiende que las culturas tienen diferentes puntos de vista sobre la muerte, sus efectos en la familia y en el individuo, entre otras cosas, pero la IA no entiende ninguna de esas cosas. 

Es un tipo de inteligencia alienígena” y a veces realmente lo arruina», concluyó Dede.

“Se han realizado muchos estudios que muestran sesgos raciales y de género en los datos que se incluyen en la IA. 

Ciertamente, hay problemas importantes incrustados en los datos. Pero creo que también tenemos que mirar el sistema completo”, dijo Sean McGregor, que tiene un doctorado en aprendizaje automático, es fundador de Responsible AI Collaborative.

El también consultor técnico principal de IBM Watson AI XPRIZE y desarrollador de la base de datos de incidentes de IA, agregó que se puede decir que los datos en sí son perfectamente imparciales y producen y pueden producir un sistema de buen desempeño.

“Todavía queda la pregunta de ¿En qué configuras la cámara? En cuanto al contraste, será más brillante o más oscuro, lo que cambia el rendimiento del sistema para las personas con un tono de piel diferente que está completamente fuera del alcance de lo que expresan los datos?”, comentó.

Dijo que existe un ingeniero que está tomando una decisión. “Se trata de quién tiene el poder de tomar esa decisión, de girar la perilla para desempeñarse mejor en una u otra condición, y el problema que a menudo tenemos es que hay alguien sentado en un puesto de ingeniería que toma esas decisiones. Incluso si todos tienen buenas intenciones, aún podría terminar con un resultado sesgado al final”, comentó.

También te puede interesar

Este sitio web utiliza cookies para mejorar tu experiencia. Asumiremos que estás de acuerdo con esto, pero puedes optar por no aceptar si así lo deseas. Aceptar Leer más