Профессор социологии Питтсбургского университета Марк Патерсон обеспокоен вопросом о том, почему среди роботов так много белых.
Профессора также волнуют "проблемы расовой и гендерной предвзятости в алгоритмах искусственного интеллекта и данных, используемых для обучения больших языковых моделей, таких как ChatGPT".
Патерсон написал в журнале The Conversation, что эти проблемы теперь проявляются в роботах, "которые имеют физические тела, смоделированные по образцам людей или животных, не представляющих угрозы, и предназначены для взаимодействия с людьми".
Он утверждает, что некоторые роботы предназначены для взаимодействия с более разнообразными группами людей, например, для помощи людям с аутистическим спектром, детям с особыми потребностями и пациентам с инсультом, нуждающимся в физической реабилитации.
Но эти роботы "не похожи на людей и не взаимодействуют с ними таким образом, чтобы отражать даже базовые аспекты разнообразия общества".
"Эти варианты дизайна, как правило, соответствуют клиническому, чистому виду с блестящим белым пластиком, похожему на другие технологические продукты, такие как оригинальный iPod", - пишет он.
"Культурное воображение, в котором роботы считаются