Ученые из Университета Оксфорда предложили более осознанный подход к внедрению этических принципов в разработку и управление искусственным интеллектом (ИИ) для детей.
В научной статье, опубликованной в Nature Machine Intelligence, авторы подчеркнули, что хотя существует растущее согласие относительно высокоуровневых этических принципов для ИИ, мало известно о том, как эффективно их применять в интересах детей.
Ученые обнаружили четыре основные проблемы в адаптации таких принципов для блага детей, включая недостаточное учета индивидуальных потребностей и развития детей, недостаток оценок, учитывающих интересы и права детей, и отсутствие скоординированного подхода к формулированию этических принципов для детей.
Ученые также рассмотрели реальные примеры, подчеркнув необходимость внедрения принципов защиты в инновации, связанные с искусственным интеллектом, чтобы предотвратить детей от доступа к предвзятому или вредному контенту. В ответ на эти вызовы, исследователи рекомендуют увеличить вовлечение родителей, разработчиков ИИ и детей самих, а также создать механизмы юридической и профессиональной ответственности, ориентированные на интересы детей.