Какую опасность представляет для человечества искусственный интеллект?

Искусственный интеллект и его продукт — нейронные сети. Еще недавно лишь писатели-фантасты писали об этом. Сейчас же в распоряжении каждого рядового пользователя гаджетов приложения, способные создать замысловатую картинку, написать музыку, книгу или сценарий для мероприятия, подделать голос. Это не все, на чем «специализируются» нейронные сети. В мире уже существует прецедент, когда искусственный интеллект общался с человеком под чужим именем, успешно выдавая себя за человека.

Какую опасность представляет для человечества искусственный интеллект?

Звонок «с того света»

Если применение технологии машинного обучения и нейросетей стало обыденным делом во многих отраслях науки, технологий, медицины и в других сферах, то использование ее возможностей для обмана сегодня все больше беспокоит специальные службы.

Совсем недавно киберпреступники массово зашифровывали фишинговые письма, а сегодня известны случаи, когда они же пытаются подделать голос руководителя компании или какого-либо лица для достижения своих целей.

Технологии достигли такого уровня, когда обычный человек, и даже специалист по IT, не в состоянии отличить компьютерный голос ИИ от голоса человека. Паузы, интервалы, даже покашливание и интонации — все это синтезирует компьютер.

Кроме того, теперь без проблем можно синтезировать голос конкретного человека, будь то актер, политик или директор компании. В СМИ уже публиковались истории о мошенниках, которые использовали сгенерированный нейросетью голос для того, чтобы заставить сотрудника атакуемой организации выполнить необходимые действия.

Так, в марте 2019 года менеджеру одной из британских компаний позвонил «руководитель», который попросил срочно перевести несколько сотен тысяч евро одной из компаний в другой стране. Сотрудник без всяких проверок выполнил перевод, поскольку, по его словам, голос был очень похож — интонации, произношение и все прочее.

Такой синтезированный голос может без особых усилий обойти биометрическую систему идентификации на базе распознавания голосов. Такие системы уже работают, они есть, например, в инфраструктуре банковского холдинга JP Morgan Chase и британском банке HSBC. Вводят подобные системы и в странах СНГ.

Конечно, защищать своих пользователей при помощи голосовой биометрии пытаются и некоторые мессенджеры, включая китайский WeChat. Естественно, угроза затрагивает и массу IoT-устройств с функцией управления голосом, включая Google Home, Alexa, корпоративные системы и все прочее.

Конечно, справедливости ради стоит отметить, что ситуации, подобные вышеописанной, можно реализовывать не так часто. Прежде всего необходимо получить качественный образец голоса человека, которого собираются копировать. Также необходима грамотная система синтеза речи, которой под силу справиться с копированием интонации. Еще один важный пункт — найти человека, которому будет звонить робот с чужим голосом.

Если же необходимые возможности и инструменты для проведения такого «трюка» существуют, то выполнять его можно бесконечное количество раз.

К слову, нейронные сети могут провести не только человека, но и целые системы для проверки данных на подлинность. Таким образом, зарубежные исследователи применили общедоступные датасеты — это VCTK, LibriSpeech и SpeechAccent — и воспользовались этими данными для обучения нейросети при помощи таких алгоритмов, как SV2TTS и AutoVC. «Жертвами» эксперимента стали такие системы распознавания речи, как Resemblyzer и Microsoft Azure. В ходе эксперимента и ту и другую систему удалось обмануть. Успех составил от 50 до 100 процентов.

Что касается цифровых ассистентов, то обмануть их оказалось еще проще. Добровольцы, которые решили принять участие в эксперименте, с помощью синтезированных образцов собственного голоса смогли обмануть помощника в 100 процентах случаев. Со знаменитой системой WeChat также все получилось — здесь в свой аккаунт смогли войти 9 из 14 участников эксперимента.

Фейс-контроль пройден

Если с голосом разобрались, то открытым остается вопрос с внешностью. Речь идет о знаменитых биометрических системах защиты. В фильмах часто можно увидеть, как какая-либо электронная система пропускает одного человека, лицо которого внесено в базу, и не пропускает второго, чьих данных в базе нет. Сегодня подделать чужое лицо также не составляет труда.

Учитывая, что функции аутентификации вроде FaceID сейчас становятся все более распространенными, угроза вполне реальна. Идентификацию при помощи лица используют государственные и частные службы, которые следят за общественной безопасностью. В Казахстане это уже популярно с банковскими счетами.

Если с помощью программы «наколдовать» чужое лицо, простому гражданину еще предстоит доказать, что дорогостоящий кредит оформил не он. Однако визуально обмануть систему все еще сложнее, чем аудиально. Хотя можно. Это удалось сделать команде ученых, которая разработала специализированную нейронную сеть, способную заниматься генерированием «лиц-отмычек», если так можно выразиться. В качестве базы использовались не добровольцы, а лица из хранилища Labeled Faces in the Wild (LFW) Университета Массачусетса, содержащего более 13 тысяч изображений лиц.

Из той базы, что была в распоряжении нейросети, она составила своеобразные «ключи». Речь идет о некоем усредненном лице, которое можно использовать для идентификации большинства людей. Как можно судить сейчас, эксперимент удался. Во всяком случае, при тестировании трех систем распознавания лиц, Dlib, FaceNet и SphereFace, было много положительных срабатываний. Статистика оказалась следующей: Dlib — 63,92 процента удачи, FaceNet — 43,82 процента, SphereFace — 44,15 процента. Так что, прежде чем вводить новые системы распознавания, необходимо серьезно подойти к новым системам безопасности.

Другие опасения, которые систематически исходят от пользователей гаджетов: искусственный интеллект отнимет работу у профессионалов. Например, недавнее исследование показало, что в ближайшие десять лет автоматизация сократит четыре миллиона рабочих мест в частном секторе Великобритании. А в США 47 процентов рабочих мест считаются находящимися в зоне риска ликвидации из-за ИИ.

Но, несмотря на негатив в прессе, есть ряд причин, почему нельзя терять надежду на светлое рабочее будущее.

Благодаря ИИ становится понятно, насколько важен человеческий опыт. Технология прекрасно справляется с автоматическими задачами, но ей не превзойти человека в эмпатии, суждениях, отношениях и общем жизненном опыте. Многие люди путают искусственный интеллект с искусственным сознанием. ИИ хорош в решении проблем, но он плохо умеет сопереживать.

Именно поэтому ИИ не сможет полностью лишить нас работы. Наоборот, он создаст больше карьерных возможностей.

Чем больше машин и ИИ-устройств будет появляться, тем больше понадобится людей, которые будут им помогать. Искусственному интеллекту нужна помощь человека на каждом этапе работы — он не может нормально функционировать без постоянного человеческого внимания. Например, боту, занимающемуся составлением текстов, всегда будет нужен редактор или более опытный автор, а ИИ, отвечающему за подбор кадров, — консультант, который будет ему в этом помогать.

ИИ может быть опасен, если попадет в плохие руки, но важнее ответственность платформ, на которых он используется.

Феномен фейковых новостей показывает, что часто технология работает быстрее, чем человеческий мозг может разобраться, что происходит. Facebook и другие крупные соцсети наконец-то начали решать этот вопрос и даже создали специальные команды, которые будут заниматься безопасностью платформ. В Калифорнии же недавно вышел закон, согласно которому чат-боты обязаны сообщать пользователю, что они не являются людьми.

Развитие технологии проходит со своими трудностями, но в целом положительные стороны перевешивают отрицательные. Если объединить искусственный интеллект с человеческим, то получится невероятный результат. ИИ избавит нас от однообразных задач и позволит уделять больше внимания творчеству и поиску новых решений. Но сначала нам нужно избавиться от всех наших страхов и предрассудков по поводу искусственного интеллекта и направить все силы на борьбу за добросовестное использование этой технологии.

Что еще почитать

В регионах

Новости региона

Все новости

Новости

Самое читаемое

Автовзгляд

Womanhit

Охотники.ру