Проблемы искусственного интеллекта

Нарисованная ИИ мутированная женщина отражает проблемы искусственного интеллекта Общее
ИИ никогда не сделает открытие. Кто несёт ответственность за ДТП с беспилотными автомобилями? Надуманные проблемы искусственного интеллекта.

Содержание статьи «Проблемы искусственного интеллекта»:

  1. Проблемы искусственного интеллекта: классификация
  2. Проблемы искусственного интеллекта: расшифровка
  3. Надуманные проблемы ответственности
  4. ИИ не может делать открытия

Проблемы искусственного интеллекта: классификация

Можно вполне определённо заявить, что в XXI веке человечество стало массово использовать искусственный интеллект (ИИ). Одновременно восхищаясь им. И забывая проблемы искусственного интеллекта, которые неизбежны при преувеличении его возможностей.

Именно так и происходит. Если вы будете обожествлять лопату, то непременно столкнётесь с проблемами. Так как будете преувеличивать её возможности. Например, если вознамеритесь одной лопатой свернуть горы.

То же самое происходит с ИИ. Проблемы искусственного интеллекта маскируются, потому что люди забывают или не понимают, что это не разум. Это, если выразиться образно, обычная лопата. Это инструмент, тупая машина. Просто очень мощная машина, если ею правильно пользоваться.

Основные проблемы искусственного интеллекта делятся на:
1. Этические и моральные
2. Проблемы безопасности
3. Социальные
4. Экономические
5. Технические
6. Правовые
7. Проблемы стандартизации

Проблемы искусственного интеллекта: расшифровка

Все они взаимосвязаны и требуют для своего эффективного решения комплексного подхода и участия множества специалистов из различных областей. Этические и моральные проблемы искусственного интеллекта обусловлены возможным наследованием ошибочных представлений разработчиков.

Например, если ИИ наследует какие-то предвзятости, стереотипы, то это может дискриминировать определённые группы людей. Также есть проблема определения ответственности в случае ошибок ИИ и нанесённого ущерба.  

Проблемы безопасности обусловлены тем, что при внедрении ИИ в критически важные системы их сбой может навредить человечеству. Становятся более актуальными и вопросы конфиденциальности, а также защиты персональных данных.

Социально-экономические проблемы связаны с прогнозируемым массовым увольнением людей, труд которых заменил ИИ. Технические проблемы тесно связаны с безопасностью, так как охватывают вопросы надёжности и устойчивости ИИ.

Правовые проблемы искусственного интеллекта обусловлены необходимостью юридического регулирования использовании ИИ, что ставит задачи разработки новых законов. Вопросы стандартизации важны всегда. Если человечество собирается использовать ИИ массово.

Надуманные проблемы ответственности

Для понимания сложных явлений полезно использовать эффект модели, который я ранее представил в статье о том, как ошеломляющие открытия могут навредить человечеству. Используем данный эффект и здесь. В начале статьи я сравнил ИИ с тупой лопатой.

Кто будет нести ответственность, если человек с лопатой во время дизайна ландшафта надорвёт пупок? Только пользователь. Но если в инструкции к лопате будет положение, что эта лопата предназначена для выравнивания гор, то ответственность будет нести не только глупый пользователь, но и разработчик лопаты.

Также и с ИИ. Проблемы искусственного интеллекта часто надуманы и обусловлены глобальной деградацией человечества. ИИ не имеет разума, о чём читайте в отдельном материале, поэтому он не может нести никакую ответственность по определению. 

То есть остаются только 3 стороны: разработчик, пользователь и власти, регулирующие действия разработчика и пользователя. Представьте беспилотный автомобиль. Разработчик уверил всех и каждого, что его ИИ абсолютно безопасен и работоспособен.

Предприниматель, вследствие свой алогичности поверивший разработчику, решил удовлетворить жажду наживы. Он открыл таксопарк беспилотных автомобилей. В итоге, машина такси, управляемая ИИ, въехала в толпу людей и убила 5 человек.

Кто здесь будет виноват? Ответ однозначен. Власти, разрешившие использование беспилотных автомобилей, разработчик со своим кривым ИИ и «стремящийся к росту» предприниматель. В понимании этого нет ничего сложного. 

ИИ уже внедрён в важные вопросы и вершит судьбы людей. Тупые машинные алгоритмы в Интернете определяют, что важно и интересно людям, выдавая в поисковой выдаче или в социальных сетях одно и задвигая другое.

При этом и разработчики, и владельцы соцсетей очень хитро перекладывают ответственность на ИИ или на конечных потребителей. «Наши алгоритмы беспристрастны и объективны. Будьте полезны людям, и к вам придёт успех», – примерно так всегда отвечает техподдержка.

О «полезности» тысяч бессмысленных историй о том, как «я ел в ресторане» и как «я примеряла платье», разработчики и владельцы соцсетей стыдливо умалчивают. Более подробно об этом читайте в отдельной статье о доминировании ИИ в Интернете

ИИ не может делать открытия

Представленная выше классификация проблем ИИ носит больше рутинный характер. Когда что-то радикально новое неизбежно актуализирует новые задачи и проблемы. Но мы можем выделить основные проблемы искусственного интеллекта, обусловленные преувеличением его возможностей.

Как указано выше, ИИ – это не разум, а тупая машина, которая наследует все стереотипы разработчика. То есть, что такое хорошо и плохо, определяется разработчиком. На чём и основаны все проблемы работы машинных алгоритмов поисковых систем (ссылка выше).

Если не осознавать, что ИИ – это, образно говоря, лопата, то можно прийти к самым глупым выводам и страхам. Нельзя лопате давать вершить судьбы людей и мира. Участившиеся истории из новостей, как ИИ создаёт смертельные рецепты блюд или как он даёт советы, опасные для жизни, подтверждают это.

Люди, не понимающие таких важных вещей, также разделяют глобальные заблуждения, что ИИ способен делать открытия. Это просто невозможно. Опасные проблемы искусственного интеллекта определяются, как указано выше, преувеличением его возможностей.

А это происходит из-за непонимания, как происходит его обучение. ИИ обучается на том, что есть. Например, ИИ просто запоминает, как поступают люди в каждой конкретной ситуации. Или что стандартно правильно или ошибочно.

Поэтому ИИ просто не может делать открытия, которые всегда нестандартны. Он банально предоставляет перечень сведений по какому-нибудь научному вопросу. Информацию, которую уже имеют учёные.

Это как продвинутый поисковик. Научившийся складно формировать предложения, из-за чего создающий иллюзию разума. Поэтому ИИ очень эффективен как мощный инструмент в руках человека, но не как независимый эксперт. Окончательное решение по важным и сложным вопросам всегда должен принимать только человек.

Если вам понравилась статья, нажмите 1 раз на 5-ю звездочку, с помощью значков соцсетей поделитесь с друзьями, а в комментариях напишите свои соображения.

Нажмите в шапке сайта на значок Telegram и подпишитесь на канал «Анатомия мышления», чтобы всегда быть в курсе при появлении новых статей на этом сайте.

Оцените статью
Поделиться с друзьями
Анатомия мышления
Добавить комментарий