La emoción, la razón y el corazón de la radio
Síguenos: 
  |  

La IA y el futuro del trabajo: cinco expertos hablan de ChatGPT, DALL-E y otras herramientas de creación y conocimiento

Publicado: enero 23, 2023
La IA y el futuro del trabajo: cinco expertos hablan de ChatGPT, DALL-E y otras herramientas de creación y conocimiento Compartido por:

IA Empleos - el economista

Desde la máquina de vapor y la electricidad hasta los ordenadores e Internet, los avances tecnológicos siempre han perturbado los mercados laborales, eliminando algunos puestos de trabajo y creando otros. “Inteligencia artificial” sigue siendo un término equivocado –los sistemas informáticos más inteligentes todavía no saben nada–, pero la tecnología ha alcanzado un punto de inflexión en el que está a punto de afectar a nuevas clases de empleos: artistas y trabajadores del conocimiento.

En concreto, la aparición de grandes modelos lingüísticos –sistemas de IA que se entrenan con grandes cantidades de texto– significa que los ordenadores ya pueden producir un lenguaje escrito que suene humano y convertir frases descriptivas en imágenes realistas. The Conversation ha pedido a cinco investigadores en inteligencia artificial que expliquen cómo afectarán los grandes modelos lingüísticos a los artistas y a los trabajadores del conocimiento. Como señalan estos expertos, la tecnología dista mucho de ser perfecta, lo que plantea una serie de problemas –desde la desinformación hasta el plagio– que afectan a los trabajadores humanos.

Creatividad para todos y ¿pérdida de competencias?

Lynne Parker, vicerrectora, Universidad de Tennessee

Los grandes modelos lingüísticos están colocando la creatividad y el trabajo del conocimiento al alcance de todos. Cualquiera que disponga de una conexión a internet puede utilizar ahora herramientas como ChatGPT o DALL-E 2 para expresarse y dar sentido a enormes repositorios de información, por ejemplo, elaborando resúmenes de textos.
Es especialmente notable la profundidad de la experiencia humana que muestran los grandes modelos lingüísticos. En cuestión de minutos, los principiantes pueden crear ilustraciones para sus presentaciones comerciales, elaborar propuestas de marketing, obtener ideas para superar el bloqueo del escritor o generar nuevo código informático para realizar funciones específicas, todo ello con un nivel de calidad que suele atribuirse a los expertos humanos.

Por supuesto, estas nuevas herramientas de IA no pueden leer la mente. Se necesita un nuevo tipo de creatividad humana, más sencilla, en forma de mensajes de texto para obtener los resultados que busca el usuario humano. A través de las instrucciones iterativas, un ejemplo de colaboración entre el humano y la IA, el sistema de inteligencia artificial genera rondas sucesivas de resultados hasta que la persona que escribe las instrucciones queda satisfecha con uno de ellos. Por ejemplo, el ganador (humano) del reciente concurso de la Feria Estatal de Colorado en la categoría de artista digital, que utilizó una herramienta basada en IA, demostró creatividad, pero no del tipo que requiere pinceles y ojo para el color y la textura.

Aunque abrir el mundo de la creatividad y el trabajo del conocimiento a todo el mundo tiene importantes ventajas, estas nuevas herramientas de IA también tienen inconvenientes. En primer lugar, podrían acelerar la pérdida de habilidades humanas importantes que seguirán siéndolo en los próximos años, especialmente la escritura. Las instituciones educativas deben elaborar y aplicar políticas sobre los usos permitidos de los grandes modelos lingüísticos para garantizar juego limpio y los resultados de aprendizaje deseables.

En segundo lugar, estas herramientas de IA plantean cuestiones en torno a la protección de la propiedad intelectual. Mientras que los humanos se inspiran habitualmente en artefactos existentes en el mundo, como la arquitectura, la escritura, la música y las pinturas de otros, hay cuestiones sin respuesta sobre el uso adecuado y justo por parte de los grandes modelos lingüísticos de ejemplos de entrenamiento protegidos por derechos de autor o de código abierto. Las demandas judiciales en curso debaten esta cuestión, que puede tener implicaciones para el futuro diseño y uso de los grandes modelos lingüísticos.

Mientras se debaten las implicaciones de estas nuevas herramientas de IA, el público parece dispuesto a adoptarlas. El chatbot ChatGPT se hizo viral rápidamente, al igual que el generador de imágenes Dall-E mini y otros. Esto sugiere un enorme potencial de creatividad sin explotar y la importancia de hacer accesible a todos el trabajo creativo y aquel relacionado con el conocimiento.

Posibles inexactitudes, sesgos y plagios

Daniel Acuña, profesor de Informática, Universidad de Colorado Boulder

Soy usuario habitual de GitHub Copilot, una herramienta para ayudar a la gente a escribir código informático, y he pasado incontables horas jugando con ChatGPT y herramientas similares de generación de textos por IA. En mi experiencia, estas herramientas son buenas para explorar ideas en las que no había pensado antes.

Me ha impresionado la capacidad de los modelos para traducir mis instrucciones a textos o códigos coherentes. Son útiles para descubrir nuevas formas de mejorar el flujo de mis ideas, o utilizar paquetes de software que no sabía que existían para solucionar problemas. Una vez que veo lo que generan estas herramientas, puedo evaluar su calidad y editarlas a fondo. En general, creo que suben el listón de lo que se considera creativo.

Pero creo que hay que ser cautelosos.

Uno de los problemas son sus imprecisiones, grandes y pequeñas. Con Copilot y ChatGPT, estoy constantemente buscando si las ideas son demasiado superficiales, por ejemplo, textos sin mucha sustancia o código ineficiente, o resultados que son simplemente erróneos, como analogías o conclusiones equivocadas, o código que no funciona. Si los usuarios no son críticos con lo que producen estas herramientas, serán potencialmente dañinas.

Hace poco, Meta cerró Galactica, su modelo de lenguaje para textos científicos, porque se inventaba “hechos” que parecían ciertos. La preocupación era que pudiera contaminar Internet pretendiendo dar certezas mientras publicaba mentiras.

Otro problema son los sesgos. Los modelos lingüísticos pueden aprender de los sesgos en los datos introducidos y reproducirlos. Estos sesgos son difíciles de ver en la generación de textos, pero resultan muy claros en los modelos de generación de imágenes. Los investigadores de OpenAI, creadores de ChatGPT, han sido relativamente cuidadosos con lo que el modelo responderá, pero los usuarios suelen encontrar formas de sortear estas barreras.

Otro problema es el plagio. Investigaciones recientes han demostrado que las herramientas de generación de imágenes suelen plagiar el trabajo de otros. ¿Ocurre lo mismo con ChatGPT? Creo que no lo sabemos. La herramienta podría estar parafraseando los datos que obtuvo en su entrenamiento, una forma avanzada de plagio. Los trabajos de mi laboratorio demuestran que las herramientas de detección de plagio de texto van con retraso cuando se trata de detectar paráfrasis.

Estas herramientas están en pañales, dado su potencial. Por ahora, creo que hay soluciones a sus limitaciones actuales. Por ejemplo, las herramientas podrían cotejar el texto generado con bases de conocimiento, utilizar métodos actualizados para reconocer y eliminar sesgos a partir de grandes modelos lingüísticos y filtrar los resultados con herramientas de detección de plagio más sofisticadas.

Superados los humanos, quedarán los nichos laborales y lo “hecho a mano”

Kentaro Toyama, profesor de Información Comunitaria, Universidad de Michigan

A los seres humanos nos encanta creer que somos especiales, pero la ciencia y la tecnología han demostrado una y otra vez que esta convicción es errónea. Antes se pensaba que el ser humano era el único animal que utilizaba herramientas, formaba equipos o propagaba la cultura, pero la ciencia ha demostrado que otros animales también hacen estas cosas.

Mientras tanto, la tecnología ha echado por tierra, una tras otra, las afirmaciones de que las tareas cognitivas requieren un cerebro humano. La primera máquina de sumar se inventó en 1623. El año pasado, una obra generada por ordenador ganó un concurso de arte. Creo que la singularidad –el momento en que los ordenadores alcancen y superen la inteligencia humana– está en el horizonte.

¿Cómo se valorarán la inteligencia y la creatividad humanas cuando las máquinas sean más inteligentes y creativas que las personas más brillantes? Probablemente habrá una progresión. En algunos ámbitos, la gente sigue valorando que los humanos hagan cosas, aunque un ordenador pueda hacerlas mejor. Ha pasado un cuarto de siglo desde que Deep Blue de IBM venció al campeón mundial Garry Kasparov, pero las competiciones de ajedrez humanas –con todo su drama– no han desaparecido.

En otros ámbitos, la habilidad humana parecerá costosa y superflua. Por ejemplo, la ilustración. En general, a los lectores no les importa si la imagen que acompaña al artículo de una revista ha sido dibujada por una persona o por un ordenador: sólo quieren que sea relevante, nueva y quizá entretenida. Si un ordenador dibuja bien, ¿les importa a los lectores si en los créditos pone Mary Chen o System X? A los ilustradores sí, pero es posible que los lectores ni siquiera se den cuenta.

Y, por supuesto, esto no es una cuestión de blanco o negro. Muchos campos serán híbridos, algunos Homo sapiens encontrarán un nicho que les beneficie, pero la mayor parte del trabajo lo harán los ordenadores. Pensemos en la industria manufacturera: hoy en día, gran parte del trabajo lo realizan robots, pero algunas personas supervisan las máquinas y sigue existiendo un mercado para los productos hechos a mano.

Si la historia sirve de guía, es casi seguro que los avances en IA harán desaparecer más puestos de trabajo, que las personas creativas con habilidades exclusivamente humanas se harán más ricas pero serán menos numerosas, y que quienes posean tecnología creativa se convertirán en los nuevos megarricos. Podría haber un resquicio para la esperanza: cuando haya aún más personas sin un medio de vida decente, podrían agruparse políticamente y contener la desigualdad galopante.

Los viejos empleos desaparecerán y surgirán otros nuevos

Mark Finlayson, profesor de Informática, Universidad Internacional de Florida.

Los grandes modelos lingüísticos son sofisticadas máquinas de completar frases. Si se les da una secuencia de palabras (“Me gustaría comerme una…”) devolverán las posibles terminaciones (“… manzana”). Algunos como ChatGPT, que se han entrenado con un número récord de textos (miles de millones), han sorprendido a muchos, incluidos investigadores de IA, por lo realistas, amplias, flexibles y sensibles al contexto que son sus respuestas.

Como toda nueva tecnología potente que automatiza una habilidad –en este caso, la generación de textos coherentes, aunque algo genéricos–, afectará a quienes ofrecen esa habilidad en el mercado. Para imaginar lo que puede ocurrir, conviene recordar el impacto de la introducción de los programas de tratamiento de textos a principios de los años ochenta. Algunos empleos, como la mecanografía, desaparecieron casi por completo. Pero, por otro lado, cualquiera que dispusiera de un ordenador personal podía generar documentos bien mecanografiados con facilidad, lo que aumentaba ampliamente la productividad.

Además, aparecieron nuevos empleos y habilidades antes inimaginables, como la –a menudo incluida en el currículum– habilidad de trabajar con el paquete Office. Y el mercado de producción de documentos de gama alta se mantuvo, haciéndose mucho más capaz, sofisticado y especializado.

Creo que este mismo patrón se mantendrá casi con toda seguridad para los grandes modelos lingüísticos: ya no será necesario pedir a otras personas que redacten textos coherentes y genéricos. Por otra parte, los grandes modelos lingüísticos permitirán nuevas formas de trabajar, y también darán lugar a empleos nuevos y aún no imaginados.

Para comprobarlo, consideremos sólo tres aspectos en los que los grandes modelos lingüísticos se quedan cortos. En primer lugar, puede hacer falta bastante ingenio (humano) para crear un mensaje que obtenga el resultado deseado. Pequeños cambios en la instrucción pueden dar lugar a grandes cambios en el resultado.

En segundo lugar, los grandes modelos lingüísticos pueden generar resultados inapropiados o sin sentido sin previo aviso.

En tercer lugar, según los investigadores de IA, los modelos lingüísticos de gran tamaño no tienen noción de lo que es verdadero o falso, de si algo es correcto o incorrecto ni de lo que es simple sentido común. Además, no pueden hacer cálculos matemáticos relativamente sencillos. Esto significa que sus resultados pueden ser inesperadamente erróneos, tendenciosos, lógicamente defectuosos o simplemente falsos.

Estos fallos son oportunidades para los trabajadores creativos o de la industria del conocimiento. En gran parte de la creación de contenidos, incluso para el público en general, se seguirá necesitando el juicio de los trabajadores humanos para impulsar, guiar, cotejar, curar, editar y, sobre todo, aumentar la producción de las máquinas. Muchos tipos de lenguaje especializado y muy técnico seguirán estando fuera del alcance de las máquinas en un futuro previsible. Y habrá nuevos tipos de trabajo: por ejemplo, los que se dediquen a ajustar internamente grandes modelos lingüísticos para generar textos especializados destinados a determinados mercados.

En resumen, aunque no cabe duda de que los grandes modelos lingüísticos presagian trastornos para los trabajadores creativos y del conocimiento, aún se vislumbran muchas oportunidades valiosas para quienes estén dispuestos a adaptarse e integrar estas nuevas y potentes herramientas.

Los avances tecnológicos generan nuevas competencias

Casey Greene, catedrático de Informática Biomédica, Campus Médico Anschutz de la Universidad de Colorado.

La tecnología cambia la naturaleza del trabajo, y el trabajo relacionado con el conocimiento no es diferente. En las dos últimas décadas, la biología y la medicina se han visto transformadas por el rápido avance de la caracterización molecular, como la secuenciación rápida y barata del ADN, y la digitalización de la medicina en forma de aplicaciones, telemedicina y análisis de datos.

Algunos pasos tecnológicos parecen mayores que otros. Yahoo utilizó administradores humanos para indexar contenidos emergentes durante los inicios de la World Wide Web. La llegada de algoritmos que utilizaban la información contenida en los patrones de enlace de la web para priorizar los resultados alteró radicalmente el panorama de la búsqueda, transformando la forma en que las personas recopilan información hoy en día.

El lanzamiento de ChatGPT de OpenAI indica otro salto. ChatGPT integra un modelo de lenguaje de última generación adaptado al chat en una interfaz muy fácil de usar. Pone al alcance de la mano una década de rápidos avances en inteligencia artificial. Esta herramienta puede escribir cartas de presentación bastante decentes e instruir a los usuarios sobre cómo abordar problemas comunes en estilos lingüísticos seleccionados por el usuario.

Del mismo modo que las habilidades para encontrar información en internet cambiaron con la llegada de Google, las habilidades necesarias para obtener los mejores resultados de los modelos lingüísticos se centrarán en la creación de instrucciones y plantillas que produzcan los efectos deseados.

En el ejemplo de la carta de presentación, son posibles varias instrucciones. “Escribir una carta de presentación para un puesto de trabajo” produciría un resultado más genérico que “Escribir una carta de presentación para un puesto de especialista en introducción de datos”. El usuario podría crear mensajes aún más específicos pegando partes de la descripción del puesto, el currículum e instrucciones concretas, por ejemplo, “destaque la atención a los detalles”.

Como ocurre con muchos avances tecnológicos, la forma en que las personas interactúan con el mundo cambiará cuando los modelos de IA sean ampliamente accesibles. La cuestión es si la sociedad aprovechará este momento para avanzar en la equidad o para exacerbar las diferencias.

Lynne Parker, Associate Vice Chancellor, University of Tennessee; Casey Greene, Professor of Biomedical Informatics, University of Colorado Anschutz Medical Campus; Daniel Acuña, Associate Professor of Computer Science, Affiliate Professor of Information Science, University of Colorado Boulder; Kentaro Toyama, Professor of Community Information, University of Michigan y Mark Finlayson, Associate Professor of Computer Science, Florida International University

Fuente: El Economista

La empresa editora Radionautas.org y Feeling.Mx revistas online, agradecen cada una de las opiniones y comentarios en este sitio. Gracias a la entusiasta participación de lectores y oyentes como tú, que ejercen la libertad de expresión en este portal, aportan un valor importante. Estamos convencidos que Internet es la herramienta mas democrática para practicar la libertad de expresión y servir como medio de crítica y opinión. Deja un mensaje escrito aquí o envía un correo electrónico con audio mp3 adjunto a: correo@maxfeeling.com
Por el respeto a esta libertad de todos, debemos informarte que Feeling.Mx y Radionautas.org se reservan el derecho a editar o publicar mensajes obscenos o bien que atenten contra la ley y la dignidad de terceros. ¡Gracias por tu aportación!

Comentarios

comentarios, agrega el tuyo.

PIDE TU MÚSICA: 5 canciones cada 20 min

Visto hace un momento »

Lo último

Cargado, espera un momento.