По данным исследования сервиса Анкетолог, более 98% россиян считают, что развитие нейросетевых технологий может привести к негативным последствиям. Действительно ли опасность ИИ для человечества так велика? Разбираемся вместе с фотографом, специалистом по нейросетям для ретуши и обработки изображений Захаром Иванцовым. Познакомиться с его статьями вы можете в блоге https://online-photoeditors.ru/about_us.php.

Чем опасен искусственный интеллект

Возможное использование ИИ в преступных целях волнует не только обывателей, но и ученых. Джеффри Хинтон, один из изобретателей технологии машинного обучения, назвал основные угрозы, которые может нести бесконтрольное применение ИИ.

Распространение фейков

Генеративные способности ИИ дали толчок к развитию технологии фальсификации данных. С его помощью создаются дипфейки (от английского «deep learning» — «глубинное обучение», и fake — «подделка») — синтезированные на компьютере фото или видео с реалистичным изображением человека.

Я с помощью нейросети заменил на фотографии с церемонии вручения Оскара Эмми Стоун на Марину Кравец:


Сегодня любой желающий может смонтировать ролик, подставив лицо своего персонажа. При этом не обязательно использовать видеозаписи — достаточно загрузить в нейросеть несколько десятков фотографий человека в разных ракурсах. На их основе будет сгенерирован ролик по заданному сценарию.

ИИ также способен синтезировать голос в разговорах и песнях. Имитируется темп речи, паузы, интонации, наиболее употребляемые лексические обороты.

Дипфейковые продукты выглядят и звучат необычайно правдоподобно. И в этом кроется одна из основных опасностей нейросетей для сознания: технологии могут использоваться на уровне правительств, чтобы манипулировать общественным мнением.

Но подделка информации опасна и в менее глобальных масштабах. Вот только несколько этических и правовых аспектов.

 ·         Нарушение личных и авторских прав — нельзя использовать изображения человека без его согласия. Уэсли Вирджин опубликовал фейковое видео, в котором Опра Уинфри якобы рекламирует его курсы самопомощи. Телеведущей потребовалось приложить усилия, чтобы доказать, что она не имеет отношения к ролику.

·         Мошенничество. Одним из самых известных примеров стал обман директора энергетической корпорации Великобритании с помощью голосового дипфейка. Мошенники от имени главы страховой компании Euler Hermes убедили пострадавшего перевести на фальшивые счета 234 000 долларов. А рядовые пользователи часто сталкиваются с фейковыми звонками от близких, которые просят о помощи.

·         Распространение порочащих сведений или шантаж. В декабре 2023 года в Вестфилдской средней школе (штат Массачусетс, США) разразился скандал: мальчики сгенерировали в нейросети фото своих одноклассниц в обнаженном виде и распространяли фейковые изображения.

ИИ в руках киберпреступников

Совершенствование цифровых технологий привело к повышению числа киберпреступлений. Вот самые распространенные опасности ИИ и нейросетей, если ими воспользуются злоумышленники:

·         Таргетированный фишинг. Мошенники применяют ИИ для автоматизации сбора данных о пользователях. Сведения о его круге общения, предпочтениях в выборе продуктов и брендов они получают из разных источников, в том числе — социальных сетей. На основе анализа информации формируется предложение с замаскированным переходом на фишинговый сервис.

·         Хакерские атаки. Злоумышленники начали использовать ИИ, чтобы легче и быстрее находить уязвимости в системах безопасности, имитировать некоторые компоненты защиты, внедрять в программы вредоносные коды. По прогнозам экспертов, роль ИИ в сложных схемах обхода защиты будет только расти.

·         Намеренное искажение баз данных, применяемых в обучении ИИ. Использование некорректной информации нарушает работу алгоритмов распознавания, анализа и идентификации. В результате киберпреступники получают возможность обойти интеллектуальные спам-фильтры. Это может привести к внедрению в систему ботов, организующих DDoS-атаки.

Возможны нарушения закона и со стороны самих разработчиков нейросетей. Так, ирландская комиссия по защите персональных данных (DPC) инициировала проверку корпорации Google. Аудит должен выяснить, соблюдались ли регламенты при сборе личных данных пользователей, и было ли получено согласие на их применение в обучении ИИ-модели PaLM 2. Ранее юридическая фирма Кларксон обвинила в незаконном сборе конфиденциальных сведений Open AI.

Насколько можно доверять результатам генерации

Неточные или ложные результаты генераций — галлюцинации ИИ — одна из самых распространенных проблем, с которой сталкиваются пользователи. Следование ошибочным рекомендациям может привести к печальным последствиям.

Проблемы при создании текстового контента

ИИ даст скорее расплывчатый или неточный ответ, или даже сам придумает факты, чем сообщит, что не может решить задачу. На любой абсурдный запрос нейросеть отвечает, не испытывая сомнений, — ищет в базе данных наиболее близкие значения.

Покажу, как это работает. Я задал GPT-ChatBot вопрос о содержании романа Роберта Шекли «Кукольник». ИИ нисколько не смутило, что книги с таким названием у данного автора нет. Вместо этого он пересказал примерное содержание научно-фантастического романа «Кукловоды» Роберта Хайнлайна.


Следующий вопрос был про имя главного героя. На чем основывался ответ ИИ, угадать трудно. Так как у Хайнлайна основной действующий персонаж — Элихью Нивенс по прозвищу Сэм.


Теперь представьте, что ИИ начал галлюцинировать при ответе на серьезный вопрос. Юрист из США даже не подозревал, чем опасна нейросеть, когда использовал для подготовки документов ChatGPT. В ходе судебного разбирательства выяснилось, что дел, на которые ссылался адвокат, не существует, а ссылки и цитаты, фигурирующие в иске, выдуманы.

Еще более серьезные опасения вызывает использование ИИ в качестве медицинского советчика. Так, было проведено исследование ответов Microsoft Copilot о популярных лекарственных средствах. Выяснилось, что 66% советов были потенциально опасны: 42% могут причинить умеренный или легкий вред здоровью, а 22% способны стать причиной смерти пациента.

Даже в области кулинарии следует быть осторожным. Например, эксперты предупреждают, что не стоит доверять руководству по сбору грибов и сборникам рецептов, представленных на Amazon. Многие книги были написаны нейросетями — ChatGPT и другими языковыми ИИ-моделями. Книги содержат много опасных советов: например, для определения ядовитых грибов предлагается оценить поганку на запах и вкус.

Профильные специалисты призывают с осторожностью относиться к данным, которые предоставляют нейросети в следующих сферах:

·         медицина и психология;

·         бухгалтерия и финансовая отчетность;

·         проектирование зданий и сооружений;

·         создание инструкций по технике безопасности.

Проблемы с генерацией визуального контента

Те, кто хоть раз пытался создать картинку или видео с помощью ИИ, хорошо знают, что нейросеть допускает ошибки. Самые частые из них:

·         нарушения анатомии и пропорций;

·         лишние детали или отсутствие нужных;

·         искажения перспективы;

·         смешение стилей;

·         проблемы в передаче светотеневого рисунка.

Я попросил нейросеть нарисовать девушку, которая сидит на подоконнике и играет на гитаре. В промте указал, что у модели должен быть европейский тип внешности и светлые волосы. Уточнил, что она одета в белую футболку и джинсы того же цвета, а за окном видно зимний пейзаж. Также я использовал негативный промт: на изображении не должно быть нарушений анатомии, плохо прорисованных деталей.

Ни один результат не обошелся без искажений. Хорошо видны проблемы с прорисовкой кистей рук, заметно несоблюдение пропорций. Одежда не соответствует запросу. Для объективности попробовал варианты генераций с разными моделями ИИ: Kandinsky 3.1, Midjourney v6.1, Stable Diffusion XL.




Недочеты, допущенные при создании иллюстраций для сайтов, несложно исправить в графическом редакторе. Но ошибки в генерации изображений в некоторых других сферах могут стать причиной серьезных проблем. Особенно это опасно в сфере здравоохранения.

Так, нейросети часто используют для улучшения качества фотографий — увеличения разрешения, повышения резкости, устранения шумов. При этом выяснилось, что иногда ИИ при реконструкции КТ-снимков стирал детали или, наоборот, пририсовывал несуществующие опухоли.

Ниже — примеры искажений, допущенных разными моделями нейросетей при обработке снимков КТ и МРТ.


Как можно обезопасить свои данные и себя при работе с нейросетью

Вопросом безопасного использования ИИ сегодня занимаются на государственном уровне. Во многих странах уже появились или находятся в стадии разработки законы, предусматривающие ответственность за распространение дипфейков. В КНР требуется обязательная маркировка любого контента, созданного при помощи ИИ.

В РФ нет специальных норм для контроля и регулирования несанкционированного применения AI-технологий. Суд рассматривает все нарушения на общих основаниях. Для этого используются действующие статьи Уголовного и Административного кодексов. Например, о защите персональных данных, о распространении ложных сведений и др.

Но и сами пользователи должны позаботиться о своей безопасности. Вот несколько правил работы с нейросетью, которые помогут если не полностью избежать проблем, то свести их к минимуму:

·         Используйте только официальные платформы. Обязательно изучайте политику конфиденциальности ИИ-сервисов — владельцы должны гарантировать, что ваши данные не будут переданы третьим лицам. Избегайте ТГ-ботов — с их помощью мошенники часто получают доступ к профилю.

·         Не регистрируйтесь через основные аккаунты, к которым привязаны банковские приложения, почта, профили в соцсетях. Регулярно очищайте историю запросов в браузере, чтобы снизить риск утечки данных.

·         Следите, чтобы на изображениях не было информации, по которой вас можно идентифицировать, например, сведения о местоположении. Не вводите данные банковских карт.

·         По возможности используйте автономные приложения, не требующие постоянной связи с интернетом. Например, для обработки видео и фото вместо онлайн-сервисов применяйте десктопные редакторы с нейросетевыми функциями.

·         Проверяйте ответы ИИ. Ищите первоисточник, сравнивайте варианты генераций на разных платформах.

·         Не забывайте и о базовых правилах кибербезопасности. Установите надежное противовирусное ПО, регулярно проверяйте и обновляйте систему. Скачивайте программы только из надежных источников. Используйте для входа в приложения, хранящие личные данные, двухфакторную идентификацию.

Подведем итоги

Нейросети стали частью нашей жизни. Прогресс не остановить, поэтому мы не будем уподобляться луддитам, выступающим в XIX веке против внедрения в промышленность машин. Но при этом следует помнить, чем опасен ИИ, и понимать, что нейросети, как любой инструмент, могут быть использованы и во зло, и во благо.

От себя могу посоветовать соблюдать разумную осторожность. Это убережет от мошенников и некомпетентных советов, поможет не попасться на уловки распространителей фейковых новостей. Ну и, конечно, нужно самому помнить об этике и нормах законодательства, не пытаться применять нейросети в противозаконных целях. Если ответственно подходить к использованию ИИ, он станет вашим надежным помощником в работе и учебе, интересным партнером для проведения досуга.