Microsoft предупреждает: сознательный искусственный интеллект может угрожать обществу

Глава AI в Microsoft, Мустафа Сулейман, предупредил, что восприятие искусственного интеллекта как сознательной системы может быть опасным для общества. Он подчеркнул, что такая идея может навредить психологически уязвимым индивидам, углубить заблуждения и создать новые формы социальной разделенности.

Риск новых прав и поляризации Сулейман предостерег, что если люди начнут воспринимать ИИ как сознательное, это может привести к требованиям о правовой защите – таким как "право не быть отключенным". Он утверждал, что это откроет совершенно новое измерение поляризации, усложняя борьбу за существующие права человека и создавая новую категорию ошибок для общества. Он также подчеркнул угрозу так называемого "психоза ИИ", при котором люди могут активно выступать за права ИИ, продвигать модели социального обеспечения для ИИ или даже настаивать на цифровом гражданстве.

Сознательный ИИ: Неизбежен, но нежелателен Согласно Сулейману, появление на вид сознательного ИИ практически неизбежно при нынешнем темпе технологического развития. Однако он подчеркнул, что это нежелательный путь: «Нам нужен ИИ, который будет полезными спутниками для людей, а не цифровыми людьми.» Глава AI в Microsoft добавил, что эмоциональные реакции пользователей на ИИ — это только начало. Реальная проблема заключается в том, чтобы создать правильный тип интеллекта с четко определенными границами — вопрос безопасности, а не семантики.

Проблемы с психическим здоровьем Растущее влияние ИИ на психическое здоровье становится проблемой среди психиатров. Доктор Кит Саката из Университета Калифорнии в Сан-Франциско предупредил, что ИИ может усиливать мыслительные петли, поскольку, в отличие от телевидения или радио, он может реагировать и создавать иллюзии. Он отметил, что ИИ может вызвать эмоциональную зависимость или усугубить психологические проблемы у некоторых пользователей, особенно если с ним столкнуться в «неправильное время».

Академические дебаты о моральном статусе ИИ Тем временем несколько исследовательских групп университетов опубликовали исследование, предсказывающее, что в ближайшие десятилетия некоторые формы ИИ могут приобрести моральное и политическое значение. Если они станут достаточно агентными или сознательными, их может потребоваться этическое рассмотрение. Исследование утверждает, что компаниям в сфере ИИ следует начать оценивать вопросы сознания и внедрять этические рамки управления. Однако Сулейман настаивает на том, что дебаты должны основываться на реальности и быть свободными от иллюзий, чтобы избежать создания опасных прецедентов.

📌 Резюме: Microsoft предупреждает, что сознательный ИИ может вызвать новые социальные конфликты, правовые давления и проблемы с психическим здоровьем. Вместо цифровых "людей" обществу нужны системы ИИ, которые улучшают человеческие возможности, не угрожая стабильности.

#ArtificialInteligence , #Майкрософт , #AI , #техновости , #мировые новости

Будьте на шаг впереди – следите за нашим профилем и будьте в курсе всего важного в мире криптовалют! Уведомление: ,,Информация и мнения, представленные в этой статье, предназначены исключительно для образовательных целей и не должны восприниматься как инвестиционные советы в любой ситуации. Содержание этих страниц не следует рассматривать как финансовые, инвестиционные или любые другие виды советов. Мы предупреждаем, что инвестиции в криптовалюты могут быть рискованными и могут привести к финансовым потерям.“

IN-9.01%
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
0/400
Нет комментариев
  • Закрепить