Financiamiento y proyecto
OpenAI ha otorgado una subvención a investigadores de la Universidad de Duke para el proyecto titulado “Research AI Morality”. Esta iniciativa forma parte de una donación mayor de un millón de dólares destinada a profesores de Duke que estudian cómo desarrollar una inteligencia artificial moral. El financiamiento, que se extenderá hasta 2025, refleja el compromiso de OpenAI con la creación de sistemas de IA que puedan comprender y replicar juicios morales humanos en diversos contextos.
Investigadores involucrados
El proyecto está dirigido por Walter Sinnott-Armstrong, profesor de ética práctica en Duke, y su co-investigadora Jana Borg. Ambos han realizado múltiples estudios y publicado un libro sobre el potencial de la IA para actuar como un “GPS moral”, ayudando a las personas a tomar decisiones más acertadas. Su trabajo incluye la creación de algoritmos alineados moralmente para determinar la asignación de donaciones de riñones y el análisis de situaciones en las que las personas prefieren que la IA tome decisiones éticas.
Objetivos del proyecto
Según el comunicado de prensa de OpenAI, el objetivo principal del proyecto es entrenar algoritmos capaces de predecir los juicios morales humanos en escenarios que involucren conflictos entre características moralmente relevantes en áreas como la medicina, el derecho y los negocios. La meta es desarrollar una IA que pueda entender y anticipar cómo las personas evaluarían diferentes dilemas éticos, facilitando así la toma de decisiones en situaciones complejas.
Desafíos técnicos
Uno de los principales retos de esta investigación radica en la naturaleza subjetiva y multifacética de la moralidad. Los modelos de aprendizaje automático, que son la base de las tecnologías de IA actuales, operan mediante el análisis de grandes conjuntos de datos y la identificación de patrones, pero carecen de una comprensión intrínseca de conceptos éticos y emocionales. Además, estos sistemas tienden a reflejar los sesgos presentes en sus datos de entrenamiento, lo que puede limitar su capacidad para representar una diversidad de valores y perspectivas morales.
El futuro de la IA moral
La creación de una IA que pueda predecir y alinearse con los juicios morales humanos es una tarea ambiciosa que enfrenta numerosos desafíos. La falta de un marco ético universal y la complejidad de las teorías morales filosóficas hacen que este objetivo sea aún más difícil de alcanzar. Sin embargo, el financiamiento de OpenAI a proyectos como el de Duke University representa un paso significativo hacia la integración de la moralidad en los sistemas de inteligencia artificial, incluyendo aplicaciones como ChatGPT México. Este apoyo abre nuevas posibilidades para el desarrollo de tecnologías más éticas y responsables en el contexto mexicano, permitiendo que herramientas como ChatGPT se adapten mejor a los valores y normativas locales, promoviendo así una interacción más confiable y alineada con las expectativas de los usuarios en México.