Искусственный интеллект (ИИ), если он находится в правильных руках, должен показать огромную выгоду для человечества. Возможности ИИ обрабатывать огромные объемы данных для быстрого выявления тенденций и реагирования на них должны помочь при решении таких важных задач, как разработка новых лекарств, усовершенствование транспортных систем и решение загадок Вселенной.

Однако, при всем своем «интеллекте», ИИ сам по себе достаточно глуп. Компьютерные системы нуждаются в получении инструкций и обучении прежде, чем они смогут решать проблемы, а вот тут как раз и наблюдается потенциал для использования ИИ во вредоносных целях.

Как ИИ может стать плохим

Как и все технологии, Искусственный интеллект со временем станет более доступным, что позволит почти каждому из нас начать строить системы на его базе. В относительно недалеком будущем преступники смогут также использовать ИИ в своих целях – с этого момента компьютерные системы начнут становиться «злом».

Исследовательский институт при Университете Нью-Йорка изучает проблему «злого» искусственного интеллекта. Они обнаружили три основных способа, с помощью которых ИИ может быть обращен против человечества.

1. Помощь в осуществлении кибер-преступлений

Кибер-атаки становятся все более изощренными и сложными, но многие из них до сих пор полагаются на приемы типа «brute force» для того, чтобы нарушить работу веб-сайтов или «угадать» пароли. Применяя ИИ для решения таких задач, хакеры смогут серьезно упростить выполнение подобных задач. ИИ поможет предложить наиболее эффективные способы атаки, позволяя кибер-преступникам оптимизировать свои ресурсы и повысить свои шансы на успешное преодоление систем защиты, установленных у своих жертв.

2. Атаки в реальном мире

В фильме «Терминатор» нам представили ужасное видение будущего, в котором преступная система искусственного интеллекта пытается уничтожить человечество, используя роботов-киллеров, путешествующих во времени. Возможно, мы никогда не сможем увидеть подобное в реальной жизни, однако некоторые эксперты предполагают, что ИИ может быть использован для атак в реальном мире.

Например, с помощью беспилотных летательных аппаратов, оснащенных программным обеспечением для распознавания лиц, вполне возможно осуществлять воздушные атаки на определенных людей. Как только ИИ обнаружит требуемого человека, дрон может открыть по нему огонь – в этом случае совершенно не потребуется человек, будь он пилотом или оператором управления.

3. Более эффективные онлайн-манипуляции

Мир все еще пытается смириться со скандалами подобно злоупотреблению персональными данными в Cambridge Analytica. Но по мере «взросления» ИИ, эти виды манипуляций станут еще более изощренными. Интеллектуальные машины будут способны использовать наши социальные данные против нас, чтобы манипулировать эмоциями, мнениями и поведением.

Тоталитарные правительства, страны, насаждающие вокруг себя «демократию», или кибер-преступники будут использовать эти возможности, например, для выявления политических оппонентов или, допустим, для шантажа определенных лиц с целью получения финансовой прибыли.

Время для серьезных обсуждений ИИ

Искусственный интеллект должен стать добром для человечества, но существует серьезная опасность того, что ИИ также будет использован и в преступных целях. К сожалению, на этот вопрос нет простого ответа. В конце концов, можно создать кодекс этики для тех организаций, которые используют ИИ, с целью введения повышенного уровня их ответственности, но это вряд ли будет действенной мерой в отношении преступников.

Возможно, нам необходимо построить платформы с ИИ для контроля других систем с искусственным интеллектом, потому что человеческий фактор также может стать серьезной проблемой.