Innovación

La argentina que lidera el futuro de la computación y el lenguaje humano, un mercado de u$s 11.000 millones

Interesada en la inteligencia artificial y el procesamiento natural del lenguaje, esta investigadora del Conicet, enfoca su trabajo en las nuevas tecnologías que interactúan "a viva voz" con los humanos.

En los últimos tiempos, tanto las arquitecturas como los algoritmos de aprendizaje profundo y otras tecnologías aledañas lograron avances considerables en los campos del reconocimiento de imágenes y el procesamiento la palabra hablada. La disciplina del procesamiento del lenguaje natural (NLP, por sus siglas en inglés) viene generando avances significativos a lo largo y ancho de diferentes industrias que, anteriormente, no habrían incorporado este tipo de tecnologías.

 Este campo experimentó un salto cualitativo nada despreciable en los últimos años: mejoras en la potencia computacional y mejor escalabilidad, más digitalización y accesibilidad de los datos y una alianza de trabajo con el aprendizaje profundo y el aprendizaje automático. Todos estos condimentos generaron que hoy sea más rápido y más eficiente el vincular la lógica computacional con ciertos rasgos típicamente humanos como el hablar y el ver.

 Las empresas están tomando nota de esto. Por eso plataformas como Facebook y Twitter gestionan su contenido apalancadas en estas herramientas. La extracción de datos, por su parte, crecerá. Tanto para la toma de decisiones y el marketing efectivos. En los próximos años, se planea que los chatbots móviles revolucionen los sectores de marketing y comercio.

 Tanto es así que el mercado global de procesamiento del lenguaje natural se valoró en US$ 10.720 millones durante 2020, y se espera que tenga un valor de US$ 48.460 millones para 2026, según la consultora Murdock Intelligence. 

Luciana Benotti pareciera haber visto esta tendencia mucho antes. En 1985 tuvo su primera computadora y estas máquinas la "acompañaron toda la vida". Más adelante, eligió apalancar sus estudios sobre esta pasión y se dedicó a las ciencias de la computación, licenciándose en la Universidad Nacional del Comahue en 2005. Ya allí se encargó de investigar cómo se realiza el planeamiento de un sistema de diálogo utilizando la plataforma FrOz, muy similar a las viejas aventuras gráficas de la década del ochenta. A esto le siguieron maestrías y especialidades ligadas a la lingüística computacional como el reconocimiento y procesamiento de imágenes fáciles o los sistemas de publicidad de Google

Zork, un juego de aventuras basadas en texto (1980)

Hoy, preside la North American Association of Computational Linguistics con la intención de resolver algunos de los problemas más acuciantes de la disciplina. Y pretende hacerlo desde una mirada latinoamericana.

 ¿Qué te convenció para dedicarte a esta área? 

Sentía que se venía una revolución y con mucho impacto social. En 2002 viajé a Corea y ya noté que toda la gente estaba enchufada a los celulares, me llamó la atención en el momento y me imaginé que así iba a ser en todo el mundo. En ese momento fue un choque cultural. Aunque pensarlo en lo económico nunca fue mi interés, si quisiera hacerme millonaria no hubiese vuelto a la Argentina (risas).

 ¿Hubo un salto cualitativo en los últimos años? 

El área de reconocimiento del habla está en el nivel humano, calculado en errores de palabra por minuto. Esto pasó hace cuatro o cinco años ya. Yo mando mails dictados con voz hoy en día.  En el último tiempo apareció Word embedding, que dio un salto en 2015. Se trata de cómo armar representaciones para capturar el significado de palabras en los modelos. 

Preguntar cosas como "hombre es a cirujano lo que mujer es..." y que dé una respuesta contextual. Hoy también existen modelos fundamentales de lenguaje de aprendizaje automatizado en las redes neuronales. Esto acercó las áreas de visión, que estaban bastante alejadas al área de lenguaje, y hoy usamos todos los investigadores redes neuronales que, si bien existen desde hace muchos años, hace poco entendimos cómo hacerlas entrar en las computadoras actuales. Hoy, los trabajos sin esta técnica difícilmente se acepten en las conferencias importantes.

 ¿Qué papel juegan las empresas en la investigación? 

Todos estos modelos requieren mucho poder de cómputo y los modelos más grandes para el lenguaje no los podamos entrenar localmente, no tenemos los recursos, entonces es muy difícil competir con Google o Facebook y muchas de las aplicaciones que tenemos usan servicios de estas grandes empresas. Se llegó a un punto tal que hoy se discute el tema de la huella de carbono que genera esta tecnología. Hay una competencia grande entre los Estados Unidos y China,  cada tres meses sale un modelo más grande de uno o de otro.

¿Desde el Estado, la Argentina, puede competir con otros países más avanzados?

Desde la academia, Conicet, investigadores y el sistema científico en general la parte de computación está muy desfinanciada, los becarios doctorales no tienen forma de competir con la industria, se van al exterior y es muy difícil mantener un equipo porque lo que cobran es un porcentaje muy chiquito de lo que cobrarían si se fueran a cualquier empresa o a otro país. Pero más allá del sueldo en sí, hay muy pocos fondos para investigación en esta área. Hay diversos factores que contribuyen a esto. Mucha demanda de RR.HH. en las empresas, muchos egresados en Córdoba se van a MercadoLibre, y al sistema científico le cuesta actualizarse en ese sentido. Las becas son las mismas que hay en otras áreas y en otros países han decidido retener a profesores y becarios teniendo sueldos diferenciados. Hay tanto desconocimiento del área en el país que la gente que nos evalúa no nos entiende. En la última convocatoria PICT, la Anpcyt no financió nada de tecnología informática. Son 19 áreas en esta convocatoria y hay cero proyectos de informática.

Recientemente llegaste a la presidencia de la North American Association of Computational Linguistics, ¿Cuál es tu evaluación? 

Desde hace un tiempo era colaboradora y me invitaron a ser revisora ética, pero desde el punto de vista técnico también. Investigamos los impactos sociales más relevantes en este momento. La gente que reflexiona sobre esto hoy lo hace desde otras áreas, pero si no se conoce exactamente cómo funciona la tecnología no se sabe por dónde puede fallar. Estas tecnologías se equivocan de una manera muy diferente a como lo haría una persona. 

Hubo sistemas para predecir si una persona con Covid iba a ser hospitalizada, pero mirando dentro de la caja negra para ver cómo funciona, se dieron cuenta de que se usaba el tipo de letra; si era Times New Roman o Arial, para decidir si debía internarse o no. El conjunto de datos no estaba unificado y la computadora no se puede dar cuenta sola. Es muy importante darse cuenta de los posibles impactos sociales y para eso conviene tener una representación de la gente a las que estas cosas va a impactar, tener diversidad entre los representantes. Por eso una de las motivaciones fue de intentar ingresar a la asociación era que no había latinos. 

Específicamente, como representante panamericana, que también es parte de la asociación global y del comité ejecutivo, algo que me parece muy importante es que en este momentos se pide a los artículos que reflexionen sobre el impacto social. Simplemente que agreguen unos párrafos, nada más. Por ejemplo, qué pasa si se usa mal, cuáles son posibles malos usos, de dónde salen los datos, si la gente que se usa los datos estuvo de acuerdo, etcétera.

Tags relacionados
Más noticias de Infotechnology

Compartí tus comentarios

Formá parte de El Cronista Member y sumate al debate en nuestros comentarios