Noticias
09/08/2023
Producto de la visita de autoridades de la UAI a los laboratorios de Amazon, en la Arizona State University en el mes de mayo (mirar el artículo AQUÍ), invitados por AWS (Amazon Web Services) junto a un grupo reducido de universidades, nació una línea de financiamiento de proyectos de investigación de las cuales nuestra universidad se hizo acreedora de la aprobación para dos, por un monto de 33 mil dólares.
Los dos proyectos de investigación son: "Cloud simulator for controlling multiple robots in collaborative programming practices" y "Techniques for interpreting and explaining the behavior of artificial neural networks".
El primero, que se traduce "Simulador en la nube para el control de múltiples robots en prácticas de programación colaborativa", está dirigido por el Mg. Ing. Néstor Balich, director de los Laboratorios de Robótica Física e Inteligencia Artificial y de Impresión 3D del Centro de Investigaciones de la Facultad de Tecnología Informática de la UAI (CAETI).
El mismo tiene por objetivo general "diseñar y desarrollar un entorno simulado en 3D con robots virtuales online en tiempo real, que responde a un modelo físico real, con retos lúdicos para el aprendizaje, que permite que 30 o más robots simultáneamente, uno por alumno, deben programar los robots según retos grupales y/o individuales".
"El entorno debe ser multiplataforma y multilenguaje, permitiendo algoritmos de inteligencia artificial y conexión con plataformas gratuitas como Google Colab. Por último, el objetivo incluye el desarrollo de modelos pedagógicos creando y utilizando metahumanos, robots docentes virtuales con IA para impartir lecciones sobre robótica y asignaturas de IA", según el texto que se presentó ante AWS.
En tanto, el proyecto "Técnicas para interpretar y explicar el comportamiento de redes neuronales artificiales" está a cargo de la Dra. Claudia Pons, investigadora y directora del CAETI e investigadora y profesora titular de la materia Inteligencia Artificial en la UAI y la UNLP.
Entre los objetivos generales del proyecto se encuentra "contribuir a la evolución de la inteligencia artificial explicable mediante la definición y aplicación de técnicas para interpretar y explicar el comportamiento de las redes neuronales artificiales".
Así se buscará construir soluciones que permitan: confiar en las decisiones del sistema a partir de poder verificar su corrección; posibilitar la mejora de los sistemas al conocer mejor su
funcionamiento y sus posibles puntos débiles; aprender del sistema extrayendo el conocimiento aprendido y codificado y permitir el cumplimiento de la legislación que exige la transparencia de los procesos.
"Dado que no existe una solución satisfactoria al problema de la explicabilidad de las redes neuronales artificiales, este proyecto pretende perfeccionar formalismos y métodos que contribuyan a la calidad de la explicación proporcionada", según describe el proyecto.