
Foto: En Perspectiva
Durante los últimos cinco años un ingeniero uruguayo estuvo dedicado a entender cómo aprenden las redes neuronales de Inteligencia Artificial (IA).
El estudio abarca modelos de lenguaje que define como “extremadamente complejos y que en muchos casos funcionan como una “caja negra”.
El objetivo de su investigación es hacer más comprensibles y confiables los modelos de IA desarrollando técnicas que permitan reconstruir los procesos internos por los cuales estos sistemas aprenden y resuelven los planteos de los usuarios.
“Es como construir un plano de la máquina, que nos permita entender cómo funciona y verificar que cumple ciertas propiedades”, dice el autor.
Y además de comprender, se busca obtener garantías sobre el comportamiento de la inteligencia artificial.
Ese trabajo recibió el premio a la mejor tesis de doctorado del Programa de Desarrollo de las Ciencias Básicas de Udelar, Pedeciba.
¿Qué descubrió en este proceso? ¿Por qué sería bueno tener garantías de cómo se comportan estos modelos?
Emiliano Cotelo conversó con Franz Mayr, Doctor en informática e Ingeniero en Machine Learning.

Franz Mayr
- Doctor en Informática
- Ingeniero en Machine Learning
- Investigador (Sistema Nacional de Investigadores)
- Docente universitario (ORT)















