Es una pregunta que se plantea la IEP en su página sobre la ética de la IA.
Habría dos maneras de enseñar a una IA a portarse «éticamente»:
- Estableciendo unas normas globales de comportamiento que obliguen a la IA a comportarse de cierta manera, como las tres leyes de la robótica de Asimov o, más recientemente, eso que se ha dado en llamar la «IA constitucional». Existen análisis sobre los system prompts de algunos modelos (este, p.e., para Claude 4) en los que se pueden encontrar trazas evidentes de esta manera de imponer comportamientos «éticos» en las IAs.
- Entrenando a la IA con listas «casos» concretos etiquetados con sí/no.
Que son dos procedimientos relacionados con:
- La construcción de un sistema (en este caso, de comportamiento ético) de arriba hacia abajo (la primera) y de abajo hacia arriba (la segunda).
- La definición de conjuntos definidos por intensión (la primera) y por extensión (la segunda).
No está para nada claro (ni para la IA ni para nosotros los humanos) cuál de los dos procedimientos es el más adecuado y si, en el fondo, son el mismo, es decir, si es posible:
- Compilar una lista lo suficientemente amplia y, sobre todo, universalmente aceptada, de casos éticos resueltos (!).
- Construir un conjunto limitado de reglas que permitan separar todos los casos anteriores.
No puedo ser más pesimista al respecto: la frontera que delimitan las intuiciones morales —y aun suponiendo que estas se resuelvan universalmente— es de lo más sinuosa.