Pasar al contenido principal
Taller de trabajo en tecnologías del lenguaje

Tecnologías del lenguaje (NLP) y sus aplicaciones a CEL.IA

El pasado miércoles 18 de enero se celebró el primer taller de trabajo de la red CEL.IA en este año 2023, en modalidad online. Titulado “Tecnologías del lenguaje (NLP) y sus aplicaciones a CEL.IA” permitió dar a conocer a los asistentes cómo las tecnologías de procesamiento del lenguaje natural interactúan con las personas de forma amigable en el día. 

La sesión, liderada por nuestro compañero Iñigo López-Riobóo Botana, ingeniero especializado en estas tecnologías, se dividió en tres partes diferenciadas. 

En la primera parte se proporcionó una exhaustiva fotografía sobre el estado del arte en procesamiento de lenguaje natural. Tras abordar los conceptos generales e información relevante sobre los últimos avances, se abordaron los distintos modelos de inteligencia artificial aplicada a las tecnologías de NLP existentes.

En la segunda parte se trataron las aplicaciones de las tecnologías del lenguaje en el marco de la red CEL.IA, especialmente en los demostradores que se están llevando a cabo en el sector de la salud para la realización de diagnósticos médicos, en el sector industrial para la creación de asistentes virtuales, y a nivel técnico mediante el desarrollo de una API (interfaz de programación de aplicaciones o Application Programming Interfaces) que está desarrollando de forma específica el Instituto Tecnológico de Galicia (ITG). 

En la tercera parte, se abordaron los retos futuros de esta tecnología. Además de temas técnicos sobre la arquitectura de estos modelos de aprendizaje profundo, se expusieron aspectos relacionados con la ética en la IA y los chatbots, y cómo las empresas y la sociedad tienen que construir un entorno normativo, y consecuentemente tecnológico, que tenga en consideración los tres grandes problemas asociados: 

  • La protección de los datos sensibles. La potencia alcanzada por la IA generativa es de tal grado que es capaz de recuperar o generar información sensible o perjudicial y devolverla a un usuario sin permiso o sin los consentimientos necesarios.
  • La fiabilidad de las fuentes.  En la actualidad estos sistemas de NLP no reconocen la veracidad de las fuentes y reportan informaciones que pueden ser erróneas. En el caso de ChatGPT, por ejemplo, la respuesta puede ser incorrecta pero con un tono de “autoridad” que no deja lugar a interpretaciones. 
  • Comportamientos agresivos. Los modelos de NLP se alimentan de la información online, incluidas las redes sociales y, aunque no son capaces de juzgar un comportamiento, sí son capaces de aprenderlo y pueden causar daño a la sensibilidad de las personas. La validación y evaluación por parte de expertos humanos es crítica en este sentido.

Las capacidades tecnológicas para procesamiento de lenguaje natural están progresando de forma exponencial. Sabemos que los retos más grandes se encuentran en la gestión ética de su uso e ITG, junto con los socios de la red CEL.IA de excelencia investigadora en Inteligencia Artificial, están en primera línea en el desarrollo de aplicaciones mediante esta tecnología.