11 de julio 2022
El modelo de procesamiento de lenguaje natural de Google no es más consciente que el sistema de recomendación de NETFLIX, el traductor de Google, los sistemas de reconocimiento facial de Facebook o los sistemas de conversación como SIRI, al menos por ahora, indican expertos de la Escuela de Ingeniería, Ciencia y Tecnología (EICT) de la Universidad del Rosario.
La
inteligencia artificial está nuevamente en el foco de la atención pública. Hace unos días un ingeniero de Google fue suspendido luego de afirmar que el modelo de lenguaje para aplicaciones de diálogo LaMDA, que creó esta firma, exhibía comportamientos que él identificaba como de un ser que tiene sentimientos.
Lo sucedido con este ingeniero de
Google plantea el desarrollo de una inteligencia artificial con conciencia. Pero, ¿qué tan certera es esta afirmación? Para Alexander Caicedo y Santiago Alférez, profesores de la
Escuela de Ingeniería, Ciencia y Tecnología (EICT) de la Universidad del Rosario, LaMDA es un gran modelo de procesamiento de lenguaje natural, que muy seguramente revolucionará muchos campos y tendrá un gran impacto en la industria y la vida diaria de las personas, pero no es más consciente que el sistema de recomendación de NETFLIX, el traductor de Google, los sistemas de reconocimiento facial de Facebook o los sistemas de conversación como SIRI, al menos por ahora.
Para estos ingenieros, “es muy fácil dejarse sorprender por las aplicaciones y los resultados que proporcionan las nuevas tecnologías. Tenemos modelos que son capaces de generar obras de arte y proponer cómo terminan sinfonías inconclusas, pero todo esto ha sido basado en patrones que encontraron los modelos en datos que tienen cierta estructura. Un modelo de inteligencia artificial fuerte debería ser capaz de ser consciente de sí mismo y, a partir de esto, debería ser capaz de redefinirse, de crear, de planificar tareas a futuro para alcanzar una meta, que al inicio puede ser ambigua, sin embargo, hoy en día está tecnología no se ha desarrollado”.
Google y su modelo de lenguaje para aplicaciones de diálogo LaMDA
La inteligencia artificial es un campo de las ciencias de la computación que busca desarrollar sistemas artificiales que puedan realizar tareas que normalmente se atribuyen a los humanos. En los últimos años este campo ha desarrollado grandes avances y se considera una de las industrias más relevantes de este siglo, con un gran potencial a futuro.
Google lanzó en mayo de 2021 uno de sus últimos modelos de lenguaje LaMDA (Language Model for Dialogue Applications), lo que traduce al español modelo de lenguaje para aplicaciones de diálogo. Para comprender qué es este sistema, hay que hablar primero sobre inteligencia artificial. Este campo se puede dividir en dos subcampos: la inteligencia artificial débil y la inteligencia artificial fuerte, explican los profesores de la Universidad del Rosario.
“El objetivo de la inteligencia artificial débil es tratar de automatizar tareas que hacemos los humanos de forma rutinaria. Dentro de estas tareas podemos encontrar todo lo relacionado con la identificación biométrica o los automóviles autónomos, así como el desarrollo de modelos de lenguaje con los cuales podamos interactuar. La visión por computadora y el procesamiento de lenguaje natural son dos de los campos que más impacto han tenido en la actualidad y son representativos de desarrollos de una inteligencia artificial débil”, indicó Alexander Caicedo.
“Por otro lado, la inteligencia artificial fuerte busca el desarrollo de sistemas con una inteligencia artificial generalizada, donde estos sistemas sean conscientes de sí mismos y, además, puedan planificar a futuro y solucionar diversos tipos problemas para los cuales no han sido entrenados. Los sistemas de inteligencia artificial fuerte están aún en sus fases iniciales de estudio”, agregó Santiago Alférez.
LaMDA y su comunicación con los humanos
LaMDA es un sistema de procesamiento de lenguaje natural, desarrollado para poder comunicarse con los humanos. Su base es una arquitectura de red neuronal artificial muy potente llamada Transformer. Para entrenar este modelo, se le presentan un conjunto de ejemplos sobre cómo hablan los humanos, es decir, dadas las palabras de una frase se le indica al modelo cuál es la palabra que debería seguir. Este tipo de entrenamiento se conoce como entrenamiento semi-supervisado, ya que solo se requiere de textos para poder entrenarlos. Generalmente, se utiliza la información contenida en Internet para construir el gran conjunto de datos que alimentará el modelo.
Para los profesores de la Escuela de Ingeniería, Ciencia y Tecnología (EICT) de la Universidad del Rosario, en este entrenamiento hay que tener en cuenta dos cosas. La primera, es que el diseñador propone una arquitectura, un modelo fijo, donde algunos parámetros del modelo se ajustan de tal forma que se aprenda la estructura del lenguaje. La segunda, la actualización de estos parámetros busca minimizar una función de costo. En pocas palabras, el entrenamiento de estos modelos busca encontrar el conjunto de parámetros que minimiza los errores producidos por el modelo. Actualmente, la tendencia es que entre más compleja sea la arquitectura y mayor sea la cantidad de datos de entrenamiento, mejor será el desempeño del modelo.
“Como podemos ver, LaMDA no es más que un modelo que ha aprendido la estructura del lenguaje y la forma como nos comunicamos los humanos y, aunque esto es un gran avance para el desarrollo de mejores modelos de Inteligencia Artificial, no debería extrañarnos, ya que la forma como nos comunicamos sigue reglas estructuradas y establecidas, que pueden ser aprendidas por estos modelos”, señalan los expertos, quienes se preguntan: ¿Se debe considerar el hecho de ser capaz de sostener una conversación como un signo de un sistema que es consciente? ¿Qué es la conciencia? ¿Cómo se puede saber si un sistema es consciente?
“Consideremos, por ejemplo, que dentro de los datos de entrenamiento de LaMDA tengamos frases como: ‘tengo miedo a dejar de existir’, ‘si me desconectan dejo de existir’. Entonces, si le preguntamos a LaMDA, ¿de qué tienes miedo?, es muy probable que LaMDA responda: ‘de ser desconectado’. Esto no es un signo de conciencia de sí mismo o de sentimiento, sino un signo de que el potente modelo fue muy bien entrenado”, explican los profesores de la Escuela de Ingeniería, Ciencia y Tecnología (EICT) de la Universidad del Rosario.
Agregan que hay que identificar de forma clara que estos sistemas generan una respuesta en función de los patrones que consideraron posibles, pero esto no quiere decir que el sistema sea consciente de la salida que produjo.