Destacados1

¿Cómo evitar que la inteligencia artificial replique los sesgos de género? Entrevista con la gerenta general de Ceibal, Fiorella Haim

Facebook Twitter Whatsapp Telegram

La inteligencia artificial está permitiendo y lo hará todavía más a futuro, la concreción de avances que, hasta hace poco, parecían soñados para los seres humanos, por su alcance y velocidad.

Pero en algunos aspectos está replicando los mismos problemas que ya tenemos las personas. Por ejemplo, en el plano de los sesgos.

Es que los humanos tienen sesgos de diferente tipo, y son humanos los encargados de entrenar a las inteligencias artificiales que conocemos hoy.

¿Qué ocurre puntualmente con los sesgos de género? La Unión Europea realizó recientemente una campaña aquí en Uruguay al respecto, donde señaló, por ejemplo, que al pedirle al chat GPT que escribiera un poema sobre la primera persona en pisar Marte, esa inteligencia artificial asumió que esa persona sería un hombre.

¿Qué problemas puede traer esto? Este es uno de los temas que se están tratando estos días en el Khipu, el Encuentro Latinoamericano de Inteligencia Artificial que se está desarrollando en la Facultad de Ingeniería de la Universidad de la República, con el auspicio de Ceibal.

Para conversarlo en profundidad, recibimos a la ingeniera Fiorella Haim, gerenta general de Ceibal.

Comentarios