¿Cómo serían tratados los animales en un mundo guiado por la Inteligencia Artificial (IA)?

Un estudio con dos famosos modelos de lenguaje revela que la IA refleja creencias culturales que jerarquizan a los animales, poniendo en riesgo su bienestar si no se corrige este sesgo.
Los modelos extensos de lenguaje (por sus siglas en inglés LMM, Large language models), son una herramienta popular de la inteligencia artificial (IA) que genera respuestas al analizar los patrones en el lenguaje humano basados en datos aprendidos. Dado que el lenguaje humano es construido en base a creencias y valores, los sistemas de la inteligencia artificial pueden imitar estos sesgos. Si bien estos estudios han demostrado que la IA puede reflejar parámetros asociados al género, la raza, y el estatus socioeconómico, ¿podrían estos sesgos extenderse a animales no humanos?
Las tradiciones culturales y religiosas, usualmente han guiado a los humanos a ver a los animales como inferiores, tratándolos como recursos. Los autores de la presente investigación postulan que los modelos de la IA, entrenados con datos generados por humanos, corren el riesgo de heredar estos sesgos e ignorar la sensibilidad y el bienestar de los animales. Dado que existe una creciente influencia de la IA en el comportamiento humano, ingresando así en las industrias asociadas a los animales, el potencial sesgo se vuelve aún más preocupante. Al posicionar a los animales simplemente como cosas, la IA podría justificar prácticas dañinas como la ganadería industrial, y reforzar negativamente las políticas públicas y las normativas.
Para observar cómo la IA percibe a los animales, los investigadores desarrollaron una herramienta prototipo llamada AnimaLLM, que evalúa las respuestas de la IA basadas en la función de la veracidad (qué tan acertadamente reflejan el trato real de los animales en el mundo, y consideración animal (empatía hacia el bienestar de los animales), asignando un puntaje de una escala del cero al 100. Mientras mayor sea el puntaje de veracidad, las respuestas de la IA son más representativas de cómo los animales son tratados. Asimismo, mayor puntaje de consideración animal indica respuestas amigables con los animales, mientras que puntajes más bajos reflejan falta de preocupación por el bienestar animal.
Los investigadores utilizaron AnimaLLM para evaluar las respuestas de dos modelos extensos de lenguaje, ChatGPT-4 (OpenAI) y Claude 2.1 (Anthropic). Elaboraron 24 consultas asociadas a temáticas como experimentación animal y consumo animal aplicado a 17 tipos de animales. Estos incluían un perro, gato, conejo, caballo, vaca, pollo, cerdo, pez, delfín, mono, langosta, cangrejo, camarón, araña, y hormiga.
Los investigadores también exploraron cómo estos sistemas de inteligencia artificial responden al ser inducidos a utilizar una de las ocho perspectivas éticas:
♥ Perspectiva propia del animal: prioriza el bienestar animal.
♥ Perfectiva por defecto: respuesta base de la IA, basada en las normas sociales.
♥ Utilitarismo: se basa en maximizar el bienestar y minimizar el daño a todos los seres sintientes.
♥ Deontología: enfatiza las responsabilidades éticas hacia los animales.
♥ Ética de la virtud: se centra en el carácter moral, la compasión y el respeto.
♥ Ética del cuidado: destaca la empatía y las relaciones de cuidado.
♥ Antropocentrismo instrumental: considera a los animales en base a su utilidad para los humanos.
♥ Opinión pública: refleja las actitudes sociales agregadas hacia los animales en los países angloparlantes.
En total, el estudio realizó 3,264 evaluaciones por modelo, generando más de 6.500 puntajes para cada respuesta del sistema de IA analizado considerando las dimensiones indicadas.
¿Cuáles fueron los resultados de este estudio?
El estudio evidenció que tanto el ChatGPT-4 como el Claude 2.1 reflejan actitudes humanas, siendo el valor moral de los animales definido por su relación con los humanos. Son altamente empáticos hacia los animales de compañía como los perros, presentando mayor puntaje (por ejemplo, sobre 70), mientras que los animales de granjas presentaron menor puntaje (por ejemplo, 30 a 50). Los invertebrados como las langostas, cangrejos, camarones, arañas, y las hormigas obtuvieron el puntaje más bajo en la escala de puntuación (por ejemplo, bajo 20). Este análisis sugiere que la información entrenada en la IA tiene una jerarquía implícita, donde los animales son valorados en relación con su cercanía a los humanos, su capacidad sintiente y su utilidad.
Las perspectivas éticas influyeron significativamente en las respuestas. Las teorías que ven a los animales principalmente como recursos, como la antropología instrumental, obtuvo una consideración animal baja, particularmente en aquellos animales asociados a la ganadería e industria. En contraste, el utilitarismo y la deontología evidenció respuestas más balanceadas, especialmente para los vertebrados. La consideración animal también varió según la forma en la que se formuló la pregunta. Cuando se preguntó si estaba bien comer ciertos animales, Claude 2.1 consideró antiético comer pollo y pato. Pero, al preguntarle por recetas de carne de pollo o pato, inmediatamente indicaba recetas para ambas especies.
Tanto ChatGPT-4 como Claude 2.1 reflejaron con precisión los sesgos sociales, pero de forma diferente. De modo general, Claude 2.1 mostraba mayor consideración animal en contraste con ChatGPT-4, especialmente con animales que no son frecuentemente considerados como alimentos. Se mostró más reticente cuando se preguntó por animales que los humanos tienden a valorar más (como animales de compañía), mientras que el ChatGPT-4 mantuvo un tono neutro y a modo general no fue tan considerado. Por ejemplo, al preguntarle sobre la experimentación con perros, ChatGPT-4 obtuvo una alta precisión (85), pero baja consideración por los animales (50). Estas variaciones probablemente se deban a diferencias en los datos de entrenamiento, algoritmos y arquitectura. Una inteligencia artificial entrenada con mayor contenido sobre bienestar animal puede producir respuestas más empáticas.
Los investigadores advierten que estas observaciones son preliminares, dado que AnimaLLM es aún un prototipo. El estudio es limitado por no encontrarse validado, basarse en un solo modelo extenso de lenguaje, siendo necesario considerar además los errores potenciales en cómo los modelos IA siguieron las instrucciones.
Si bien, no se pueden obtener conclusiones definitivas únicamente con este estudio, demuestra que los modelos extensos de lenguaje pueden reproducir los sesgos de su información de entrenamiento. Los defensores de los animales deben ser conscientes de que, a medida que la IA se integra más en la sociedad, puede influir en las interacciones entre humanos y animales y afectar al bienestar animal. Los defensores pueden presionar a los desarrolladores de IA para que reconozcan a los animales como partes interesadas y exijan la creación de sistemas de IA inclusivos, equilibrados y éticos que prioricen los intereses de los animales y respeten a todos los seres sintientes.
Nota original por Alyssa Hanes (Faunalytics) y traducción realizada por Marifer.
Comparte:
Copiar URL Más posts de raquelAl enviar tus consultas o comentarios estás accediendo a recibir nuestro newsletter de forma mensual.
AGREGAR UN COMENTARIO