El mes de abril marca el inicio de una nueva temporada del Club de Innovadores con Albert Cañigueral como invitado. El ponente se define a sí mismo como explorador, escritor y consultor centrado en los impactos sociales y económicos de las innovaciones digitales que están definiendo nuestra era. Su trabajo se centra en la investigación, la inspiración y el acompañamiento a empresas, organizaciones y personas para adaptarlas a la era digital y en el uso responsable y ético de las tecnologías digitales. Actualmente, participa en la transferencia de tecnología y desarrollo de ecosistemas para el proyecto Aina en el Barcelona Supercomputing Center y colabora con la Fundación .CAT en la transición hacia una sociedad digital justa.
Bajo el título «¿La IA nos quitará nuestro trabajo?», Albert reflexiona sobre la Inteligencia Artificial (IA) y el futuro laboral. En torno a la IA hay mucho ruido, mitos que a menudo no corresponden a la realidad. Nuestra relación con las máquinas se presenta, muchas veces, desde la confrontación cuando deberíamos entenderla desde la colaboración. La IA es una herramienta de apoyo muy valiosa que tenemos a nuestro alcance; no es una herramienta para que haga nuestro trabajo. Los trabajadores podemos incorporar la IA en nuestro día a día como un buen copiloto, pero con cuidado de no convertirlo en un «piloto automático» (o AutoPilot).
¿Cuáles han sido los hitos clave del desarrollo y evolución de la Inteligencia Artificial? ¿Dónde estamos ahora?
Las diversas formas de IA llevan mucho tiempo desarrollándose y décadas en funcionamiento en muchos ámbitos de nuestras vidas cotidianas. Desde los filtros de lo que vemos en YouTube o redes sociales, los anuncios que nos aparecen en las webs, hasta las traducciones automáticas, las estimaciones de tiempo de desplazamiento y tráfico en Google Maps o el análisis bancario para otorgarnos un crédito o no.
Lo que ha ocurrido ahora es que se ha popularizado la IA «generativa» y que, además, se ha puesto a disposición de millones de personas con herramientas como GitHub Copilot (generación de código), Mid Journey (imágenes gráficas) o el ChatGPT y Perplexity. Ha habido una gran inversión y una explosión de herramientas de todo tipo.
Se ha generado mucho «hype» con todo esto. La consultora Gartner ha situado la IA generativa en la parte más alta del «hype cycle» a finales de 2023.
¿Un desafío cuando hablamos de entornos laborales y IA?
El principal desafío es entender dónde la IA puede aportar, realmente, valor en el proceso productivo de la creación de un producto o un servicio. Debemos superar la idea de la sustitución de las personas con el único objetivo de reducir gastos y, además, valorar si la automatización (que puede ser imperfecta debido a la naturaleza de la IA) ayuda o no a las personas trabajadoras. Recomiendo el informe de la OIT sobre el futuro del trabajo y la IA generativa.
El reto es saber frenar para hacernos todas las preguntas importantes frente a este sentimiento de urgencia y de FOMO (Fear Of Becoming Obsolete) en la incorporación de la IA de manera inmediata. La IA en entornos laborales debe ser efectiva, merecedora de nuestra confianza y debe proporcionar seguridad para todos (empresa, personas trabajadoras y la sociedad en general).
¿Crees que es válida la idea de que mientras la IA proporciona información estadística, los humanos aportan el contexto lógico?
Sí, la idea es válida. Uno de los críticos más conocidos de la IA, Gary Marcus, habla de que tienen «deep learning but not deep understanding» (aprendizaje profundo, pero no comprensión profunda).
Con los sistemas actuales, como se explica en Prediction Machines (un libro muy recomendable), el hecho de reducir el costo de hacer predicciones con un alto grado de acierto ya es un gran avance, pero debemos poner estos resultados en el contexto lógico (las personas) y ver cómo deben interpretarse a la hora de tomar decisiones (y automatizarlas en algunos casos).
Si queremos una IA que entienda el mundo, debemos avanzar hacia otras arquitecturas técnicas (más combinatoria de piezas y menos «cajas negras mágicas»). Hay poca gente investigando en direcciones que no sean hacer los modelos actuales más grandes. «Un árbol más grande no nos llevará a la luna» (Gary Marcus en el libro Rebooting AI).
¿La IA carece de la capacidad de comprender el conocimiento y la realidad humana?
Hasta ahora, no se ha avanzado mucho en esta capacidad de «comprensión» del mundo. La IA no tiene concepto de causa-efecto. Es capaz de detectar correlaciones a gran escala, pero no la causalidad.
Tampoco es capaz de entender el proceso productivo que hay detrás de un resultado (ya sea una imagen de Midjourney o una traducción automática). Es capaz de replicar resultados, pero no el proceso.
La IA no sabe cómo responder ante cosas que no ha visto durante el entrenamiento y, lo peligroso, es que muchas veces intenta dar una respuesta que puede sonar plausible pero que no tiene ninguna validación lógica.
Imagina un escenario futuro en lavandería industrial + IA. ¿Cuál podría ser?
Esta es el tipo de pregunta que deberíamos hacernos. Dibujar escenarios (con diversos roles y pesos entre los roles de las personas y las máquinas); hacer un análisis de costos, hacer una valoración de la calidad del trabajo de las personas implicadas en la operación, etc.
• ¿La IA aplicada al consumo de energía y agua de las máquinas?
• ¿La IA y robotización aplicada a la automatización de procesos?
• ¿La IA para rediseñar las propias máquinas y todo el proceso de operaciones de una lavandería industrial?
• etc…
No me atrevo a responder, pero me parece una buena oportunidad para hacer un replanteamiento desde cero (tabula rasa) de una lavandería industrial.
compartir