El Responsible AI Readiness Index (RARI) ayudará a los gobiernos a desarrollar políticas y reglamentos para optimizar el uso y desarrollo responsable de la IA.
La firma Access Partnership lanzó una metodología para que los gobiernos evalúen hasta qué punto sus ecosistemas de Inteligencia Artificial están listos para implementarla responsable y ética de manera ágil y sencilla.
El Responsible AI Readiness Index (RARI) permite a las economías evaluar su progreso en comparación con estándares de ética y responsabilidad como la privacidad, la transparencia, y la equidad. También ayuda a identificar brechas, barreras, y áreas de mejora, asegurando que los esfuerzos e inversiones que se hacen están alineados con las necesidades y capacidades específicas de cada país – ya sean culturales, financieras, de infraestructura, institucionales u organizativas.
Al respecto, Greg Francis, director ejecutivo de Access Partnership, señaló: “Dado que la IA se ha introducido en todas partes de la sociedad, desarrollar prácticas responsables de IA no es una opción. El uso generalizado de la IA implica una serie de desafíos éticos y sociales, lo que exige que construyamos marcos reglamentarios para regir su implementación”.
“Con nuestro Responsible AI Readiness Index, buscamos facilitar la integración de la IA responsable en las agendas de digitalización de los países y garantizar que sus entornos políticos puedan avanzar con prácticas éticas de IA”, amplió.
Basado sobre principios, pautas, estándares, y mejores prácticas internacionales, el RARI está diseñado para superar las deficiencias de otras metodologías de evaluación de IA, cuales a menudo dejan de lado la IA responsable o son demasiado complejas para ser aplicadas.
Por eso, el RARI ha sido conceptualizado de manera a apoyar a quienes buscan priorizar y poner en práctica una IA responsable.