La nueva IA de Bar-Ilan ayuda a tomar decisiones informadas

El aumento de los niveles de confianza de los sistemas de IA tiene profundas implicaciones en diversos ámbitos, como los coches autónomos, según una investigación de Bar-Ilan.

Las letras AI (Inteligencia Artificial) aparecen en la placa base de un ordenador en esta ilustración tomada el 23 de junio de 2023. (photo credit: REUTERS/DADO RUVIC/ILLUSTRATION/FILE PHOTO)
Las letras AI (Inteligencia Artificial) aparecen en la placa base de un ordenador en esta ilustración tomada el 23 de junio de 2023.
(photo credit: REUTERS/DADO RUVIC/ILLUSTRATION/FILE PHOTO)

Los ingenieros, expertos en transporte y futuristas están de acuerdo en que los vehículos, como autos, camiones, autobuses, trenes y eventualmente incluso aviones, serán autónomos y sin conductor.

Ahora, una nueva medida para distinguir entre la toma de decisiones de inteligencia artificial (IA) de alta y baja confianza, desarrollada por investigadores de la Universidad Bar-Ilan (BIU) en Ramat Gan, ha demostrado aumentar significativamente la seguridad y confiabilidad de los vehículos autónomos y otras aplicaciones.

Descrito por sus autores como un "hitó en IA", aborda una pregunta fundamental: ¿Pueden las arquitecturas de aprendizaje profundo lograr una confianza muy por encima del promedio para una parte significativa de las entradas mientras mantienen una confianza promedio general?

Los hallazgos del estudio proporcionan un rotundo "¡sí!" a esta pregunta, marcando un avance significativo en la capacidad de la IA para discernir y responder a diferentes niveles de confianza en tareas de clasificación. Al aprovechar los conocimientos sobre los niveles de confianza de las arquitecturas profundas, el equipo de investigación ha abierto nuevas vías para aplicaciones del mundo real, que van desde vehículos autónomos hasta atención médica.

El alcance de la IA y cómo puede beneficiar al mundo de la tecnología

El estudio acaba de ser publicado bajo el título "Métodos avanzados de confianza en el aprendizaje profundo" en la revista Physics A por un equipo liderado por el Prof. Ido Kanter del departamento de física de BIU y el Centro de Investigación Cerebral Multidisciplinario Gonda (Goldschmied).

Ella Koresh, estudiante de pregrado y colaboradora en la investigación, explicó las implicaciones prácticas del trabajo. "Comprender los niveles de confianza de los sistemas de IA nos permite desarrollar aplicaciones que prioricen la seguridad y la confiabilidad", señaló. "Por ejemplo, en el contexto de los vehículos autónomos, cuando la confianza en la identificación de una señal de tráfico es excepcionalmente alta, el sistema puede tomar decisiones de manera autónoma. Sin embargo, en escenarios donde los niveles de confianza son más bajos, el sistema solicita intervención humana, asegurando una toma de decisiones cauta e informada".

Los sistemas de conducción autónoma instalados en un vehículo de prueba que condujo en varios escenarios en tiempo real en una superficie de prueba física en la Arena del Grupo Shlomo en Tel Aviv. (Crédito: OMRI REFTOV)
Los sistemas de conducción autónoma instalados en un vehículo de prueba que condujo en varios escenarios en tiempo real en una superficie de prueba física en la Arena del Grupo Shlomo en Tel Aviv. (Crédito: OMRI REFTOV)

Mejorar los niveles de confianza de los sistemas de IA tiene profundas implicaciones en diversos ámbitos, desde la escritura basada en IA y la clasificación de imágenes hasta procesos de toma de decisiones críticas en atención médica y vehículos autónomos. Al permitir que los sistemas de IA tomen decisiones más matizadas y confiables cuando se enfrentan a la incertidumbre, esta investigación establece un nuevo estándar para el rendimiento y la seguridad de la IA, concluyó el equipo.