June 10, 11:06

Anthropic написали, как они тренировали персоналию (хотя очень хочется перевести character как характер) своего чат-бота Claude. Довольно поучительное чтиво и видео. Меня больше всего зацепило, что 1. с одной стороны, ИИ — это не человек, вкладывать в него видимость человеческих эмоций — явный источник проблем и ошибок. А с другой стороны, 2. если сделать чат-бота показательно нейтральным, люди автоматически перестают помнить, что ИИ как люди, часто ошибается. Честно говоря, я не думал, что при нашей жизни мы застанем такого рода проблемы.

www.anthropic.com/research/claude-character

Claude’s Character

Anthropic is an AI safety and research company that's working to build reliable, interpretable, and steerable AI systems.