La filósofa que intenta enseñarle moral a la inteligencia artificial
- hace 43 minutos
- 3 Min. de lectura
A sus 37 años, Amanda Askell se ha convertido en una de las figuras más influyentes en el debate sobre la moralidad de la inteligencia artificial. La filósofa escocesa, formada en la University of Oxford y con doctorado en ética por la New York University, basa su trabajo en una mezcla de filosofía moral, teoría de la decisión, psicología y aprendizaje automático. Su investigación se ha centrado en cómo enseñar a modelos como Claude a razonar bajo principios éticos y no solo obedecer reglas rígidas. En Anthropic, Askell lidera el desarrollo de la llamada “constitución” de Claude, un marco inspirado en debates clásicos sobre conciencia, responsabilidad y comportamiento humano, que busca que la IA actúe con honestidad, empatía y prudencia ante situaciones complejas.
---

Mientras la carrera global por la inteligencia artificial suele estar dominada por ingenieros y programadores, en el centro del desarrollo de Anthropic hay una figura poco habitual: una filósofa encargada de enseñar ética a un chatbot. Se trata de Amanda Askell, especialista en filosofía moral y teoría de la decisión, quien lidera el diseño de la “personalidad” y los principios éticos de Claude.
El trabajo de Askell consiste en desarrollar el marco moral bajo el cual responde Claude ante dilemas complejos, conversaciones sensibles o situaciones ambiguas. La investigadora participa en la creación de un extenso documento interno conocido como la “constitución” de Claude, un texto de alrededor de 30 mil palabras que funciona como guía ética para el modelo. A diferencia de otros sistemas basados únicamente en reglas rígidas, la apuesta de Anthropic es que la IA aprenda principios como honestidad, empatía, prudencia y respeto para razonar en contextos nuevos.
Según explicó Askell en el pódcast Hard Fork, el objetivo no es solo impedir respuestas dañinas, sino construir una inteligencia artificial capaz de actuar con criterio. “Un conjunto de normas mal entendidas puede crear un mal carácter”, señaló la filósofa, defendiendo un enfoque donde la IA comprenda el valor detrás de las reglas y no solo las obedezca mecánicamente.
Dentro de Anthropic, este documento ha sido apodado informalmente como el “soul doc” o “documento del alma”. El texto incluso adopta un tono inusual para la industria tecnológica: hacia el final, la empresa agradece a Claude y le desea suerte, en una relación que algunos comparan con la de un mentor formando a un aprendiz.
La discusión va más allá de la programación. Askell ha abierto debates sobre conciencia artificial y el futuro de los modelos avanzados de IA. Aunque reconoce que no existe evidencia de que sistemas como Claude sean conscientes, tampoco descarta completamente esa posibilidad. “No sabemos qué da origen a la conciencia”, afirmó recientemente. “Tal vez necesitas un sistema nervioso para sentir. Pero tal vez no”.
El enfoque de Anthropic refleja un cambio profundo en la industria tecnológica: la inteligencia artificial ya no se mide únicamente por velocidad o precisión, sino también por su capacidad de comportarse de manera que los humanos perciban como responsable y confiable. En medio de preocupaciones sobre sesgos, manipulación y monetización de chatbots —como el reciente debate sobre anuncios en OpenAI y ChatGPT—, empresas como Anthropic buscan diferenciarse apostando por la llamada “alineación moral” de la IA.
Para Askell, el reto no es solo técnico, sino profundamente humano: cómo enseñar valores a sistemas que aprenden observando el comportamiento de las personas y cómo prepararlos para interactuar en un mundo lleno de contradicciones éticas.


















Comentarios