Hace unos días Blake Lemoine, un ingeniero de Software de Google, comentó que en su compañía desarrollaron una Inteligencia Artificial (IA) llamada LaMDA (Modelo de lenguaje para aplicaciones de diálogo) que era capaz de tener emociones y sentimientos, además indicó que era como un niño pequeño un poco egocéntrico.
Él compartió sus hallazgos a través de sus redes sociales e igual envió cartas a distintos medios de comunicación. Luego de que difundiera esta información, los encargados de la empresa lo suspendieron por haber quebrantado su política de privacidad, asimismo, destacaron que sus declaraciones eran inexactas.
Te puede interesar: Cuidado con tu smartwatch: podrían hackear tus cuentas y claves
Los directivos explicaron que esa IA no funciona como Lemoine asegura, y que esas afirmaciones solo dañaban este campo de estudio, pues detallaron que las personas podrían empezar a confundir esta disciplina profesional con aspectos de ciencia ficción. Lo mismo precisó un especialista, que ha estado siguiendo de cerca este software.
“Escuchar ese tipo de chorradas (tonterías) no beneficia. Corremos el riesgo de que la gente le tome manía y piense que estamos en modo Matrix y que las maquinas son más listas y que van a acabar con nosotros. Eso es remoto, es utópico”, refirió a la BBC Julio Gonzalo Arroyo, catedrático e investigador de la Universidad Nacional de Educación a Distancia (UNED) en España.
ES UN SISTEMA DE APRENDIZAJE CONTINÚO
Expertos en la materia comentaron que LaMDA funciona con un ‘transformer’, es decir, un conjunto de redes neuronales artificiales profundas, que están almacenas en una nube, a la cual se puede acceder a través de una computadora. Para interactuar con ella, los investigadores le escriben una serie de códigos, acompañados del mensaje que le quieren dar.
Para preparar a esta IA, le hicieron distintas pruebas de ensayo y error, si se equivocaba tenía que buscar en todo su sistema la respuesta correcta, una vez que la encontraba, hacía las modificaciones pertinentes. Para cumplir con este objetivo, le enseñaron varias palabras y sus significados, que guarda y usa cuando es necesario.
Además, le añadieron la habilidad de reconocer términos clave, que emplea para hacer una 'conversación' y que no suene de manera genérica, Gonzalo dio un ejemplo en el que alguien le dice ‘estoy aprendiendo a tocar la guitarra’, pero en lugar de un responder un ‘sí’ o ‘está bien’, dice ‘¿De qué marca será la guitarra?’.
LaMDA puede contestar porque dentro de su sistema hay miles de códigos que relaciona para seguir con la interacción. Entre más aprenda, será más sencillo que use términos específicos que concuerden mejor con el contexto.
Puedes leer: México y China, los países donde resulta más difícil el cobro de deudas
Para el diseño de LaMDA buscan tener cuidado con lo que le escriben, ya que no quieren que los estereotipos o prejuicios de los seres humanos sesguen este sistema, por lo que tienen el objetivo de evitar el "contenido violento o sangriento, promueva calumnias o estereotipos de odio hacia grupos de personas, o que contengan blasfemias", expuso Google.
Nota publicada originalmente en El Sol de Puebla