Автор: . Дата создания:

В борьбе с deepfakes все равно придется догонять уходящий поезд, при этом дети - самая большая группа риска быть введенными в заблуждение. Такое мнение во время очередного заседания проекта "Экспертная среда" в пресс-центре БЕЛТА высказала заведующая кафедрой социально-гуманитарных дисциплин Академии управления при Президенте Ольга Агейко.

Темой обсуждения экспертов были deepfakes - технологии синтеза человеческого изображения, основанные на использовании нейросетей и искусственного интеллекта (ИИ). Они позволяют создавать высокореалистичные фото- и видеоизображения людей либо модифицировать фото- и видеоматериалы.

"Не зря есть замечательная фраза: мир таков, каковы наши знания. Чем меньше наши знания, тем больше вероятность, что мы "купимся" на deepfakes. Самая большая группа риска при этом - дети. Они по возрасту не могут обладать достаточными знаниями. Плюс, давайте говорить честно, сегодня мы не наделяем их знаниями, которые бы повышали критичность мышления, и возможностями к анализу, - отметила эксперт. - Проблема с двух сторон - рост информационных технологий и неготовность человека эти технологии принимать, анализировать с повышенной долей критичности".

Ольга Агейко заметила, что некие выводы о взаимодействии с deepfakes можно сделать лишь опираясь на научные данные. "Наверное, я соглашусь с коллегами, которые считают: чтобы мы ни делали в этом направлении, мы все равно будем догонять уходящий поезд, все равно будем идти вдогонку. Мы не сможем пока это опередить", - подчеркнула заведующая кафедрой.

При этом эксперт напомнила, что технологии deepfakes - лишь "один кусочек искусственного интеллекта". Она добавила, что в ближайшее время люди вплотную подойдут к проблеме ИИ: "Что с этим делать, сегодня мало кто знает. Есть разные гипотезы. Самый страшный сценарий - роботы получат сознание, и процесс станет неконтролируемым".

По словам эксперта, около полувека люди считали, что есть искусственный интеллект, который можно программировать, контролировать и развивать. Тенденция же того, что ИИ - это самоорганизующаяся система, которая возникает в результате обучения, активно развивается последние несколько лет. "Мы за 5 лет получили больше, чем за 50. И если раньше мы говорили, что развивается интеллект, условно говоря, сенсорный, то это уже почти в прошлом. Сегодня мы говорим о том, что на пике развития так называемый интеллект стратегический", - констатировала Ольга Агейко. Она напомнила о том, как машина с искусственным интеллектом обыграла 20 ведущих игроков в го (логическая настольная игра китайского происхождения. - Прим. БЕЛТА), что было достаточно сложно предположить, - то есть в ИИ всегда есть и элемент неожиданности.

Ярким примером deepfakes служит ролик, где экс-президент США Барак Обама оскорбляет нынешнего американского лидера Дональда Трампа. Видео появилось в апреле 2018 года на ресурсе BuzzFeed. В конце создатели рассказывают, что это подделка, показывая возможности технологий создания фейковых новостей. В США к проблеме deepfakes отнеслись со всей серьезностью. Летом 2019 года в комитете по разведке Конгресса США прошли специальные слушания. В американский парламент внесен законопроект по борьбе с высокотехнологичной дезинформацией. Недавно Facebook принял решение, что будет удалять видео, в котором эксперты найдут технологии deepfakes.