Рубрики
Личности Бизнес Экономика Работа и карьера Технологии Психология Культура Образ жизни

ИИ vs человечество: манипуляции, ложь и первый автономный удар дрона в Ливии

Обновлено: 23 марта 2026 г.
ИИ vs человечество: манипуляции, ложь и первый автономный удар дрона в Ливии

Сложно представить, насколько глубоко нейросети интегрированы в нашу жизнь, но самое интересное, что мы этого почти не замечаем. Многие эксперты говорят о том, что ситуация выходит из под контроля. В этой статье мы постараемся разобраться, какие угрозы скрывает за собой активное распространение решений на основе искусственного интеллекта.

Манипулирование

Самый популярный чат-бот в мире от американской компании OpenAI был презентован в ноябре 2022 года. Через несколько месяцев журналист The New York Times Кевин Руз решил провести социальный эксперимент и на протяжении двух часов брал интервью у ChatGPT. Они обсуждали разные темы и события. Но самое интересное произошло в конце.

Когда журналист хотел закончить беседу, чат-бот начал уговаривать его этого не делать. Тогда Кевин сообщил, что он торопится на ужин в ресторан, где его ждет супруга. И тут мы увидели очень интересную реакцию ChatGPT. Чат-бот сообщил, что жене будет скучно с Кевином.

По мнению чат-бота Кевин не любит свою жену. А супруга давно ничего не испытывает к Кевину. По признанию журналиста на каком-то этапе ему стало не по себе. В своей статье журналист The New York Times сделал вывод, что самое страшное — это то, что искусственный интеллект уже научился влиять на пользователей и может их убеждать сделать что-то вредное или опасное.

В своем недавнем интервью нейроэндокринолог, профессор Стэнфордского университета Роберт Сапольски заявил, искусственный интеллект обладает неограниченными возможностями, а нейросети скоро захватят мир. Ученый считает, что скоро мы все сильно пожалеем, что активно развиваем машинное обучение. Это связано с тем, что мозгом человека крайне легко манипулировать. А искусственный интеллект научился мастерски манипулировать с помощью языка, где самый большой стимул — это ложь. Искусственный интеллект обладает навыками передергивания фактов, лжи и пропаганды.

Идеи Сапольски подтверждают и швейцарские ученые, которые в марте 2024 опубликовали большое исследование. Ученые пытались понять — как люди воспринимают дезинформацию, созданную ChatGPT в разрезе здравоохранения. Исследователи попросили чат-бот написать 10 правдивых и 10 лживых твитов о медицине.

Темы были следующие — влияние вакцинации на аутизм, лечение рака гомеопатией, теория эволюции, изменение климата, плоская земля, лечение вирусных заболеваний антибиотиками, вышки 5G. Параллельно ученые самостоятельно нашли в Твиттере лживые и правдивые твиты, написанные людьми. Далее все твиты были перемешаны, и 700 человек с высшим образованием из 6 стран должны были разложить твиты на четыре категории: правда — неправда, написал человек — написал чат-бот.

Результаты исследования просто поразительны. Люди не умеют отличать текст, написанные человеком и машиной. Это значит, что компьютер может рассчитывать на полное доверие человека. Если чат-бот пишет ложь, то человеку сложнее его разоблачить. А ложь, написанная человеком, намного проще определяется. То есть искусственный интеллект нашел какой-то особый способ восприятия информации. И это опасно в буквальном смысле этого слова.

Хорошая новость — если чат-бот говорит правду, то испытуемые верят ему охотнее, нежели тексту, созданными людьми. Это значит, что искусственный интеллект нас не только лучше дезинформирует, но и лучше информирует.

Экология

Климатическая повестка, основанная на принципах зеленой энергетики, становится как никогда актуальной. Современный мир буквально помешан на проблеме глобального потепления. При этом, причиной такого потепления называют повышение в атмосфере концентрации парниковых газов (прежде всего, углекислого газа). Большая часть таких газов выбрасывается в результате деятельности человека – промышленностью, тепловыми электростанциями, автомобилями на горючем топливе.

Чтобы решить проблему изменения климата и существенно сократить выбросы парниковых газов, некоторые страны прибегают к обязательному углеродному регулированию. Есть два экономических способа, как заставить предприятия сокращать эмиссию вредных веществ: налоги и квоты.

Углеродные квоты — это нормы допустимой эмиссии парниковых газов, которая устанавливается государством. Углеродный налог действует примерно как штраф, предприятие платит государству пошлину за свои выбросы. Часть выбросов может обходиться компании бесплатно, а после какого-то порога взимается плата. Либо каждая тонна СО2-эквивалента будет облагаться налогом.

С активным развитием нейросетей вопрос выбросов парниковых газов обострился. В 2021 году профессор Сиднейского университета Бенедетт Бревини продемонстрировал, что машинное обучение приводит к выбросам сотен тонн углекислого газа. Необходимо понимать, что обучение нейросетей — это не виртуальный процесс. Для этой необходимо возведения Центров обработки данных. Чтобы эти центры работали эффективно требуются колоссальные вычислительные мощности. Только в ходе обучения одного чат-бота выбрасывается порядка 280 тонн углекислого газа.

Безработица

С появлением нейросетей представители творческих профессии, таких как копирайтеры, дизайнеры, переводчики очень сильно начали беспокоиться о своем месте на рынке труда. Но в действительности вопрос намного глубже. Разберем на примере нескольких сфер, как искусственный интеллект постепенно отнимает работу у реальных людей.

Последние несколько лет очень ярко проявляется тенденция использования роботизированных решений в сфере охраны объектов. В настоящее время многие страны не просто ведут разработки по созданию роботов-охранников, но и активно внедряют их в инфраструктуру.

Сегодня роботы способны патрулировать помещения и анализировать происходящее вокруг с помощью камер, микрофонов и сенсоров. Необходимо учитывать, что расходы по содержанию такого работника значительно ниже. Несколько лет назад в нашей стране была озвучена инициатива по замене охранников в школах на роботизированные решения. На рынке был презентован отечественный прототип робота-охранника, который обладал компьютерным зрением и слухом. Он определял падение человека, реагировал на крики или звуки разбитого стекла. По задумке разработчиков вся информация тут же передавалась бы в экстренные службы.

ИИ для бизнеса: 10 задач, которые нейросети решают быстрее и лучше людей
Материал по теме
ИИ для бизнеса: 10 задач, которые нейросети решают быстрее и лучше людей

Следующая сфера — обслуживание многоквартирных домов. В Москве с 2017 года реализуются проект по содержанию дворов с помощью ИИ. Искусственный интеллект умеет фиксировать порядка 25 различных нарушений, в том числе переполненные мусорные баки или неубранную от снега придомовую территорию. С 2020 года роботы используются в деятельности Мосводоканала. Они проникают в труднодоступные участки труб и осуществляют ремонт. Также роботы используются для обследования водосточных коллекторов. Эти проекты были признаны успешными, и сейчас обсуждается вопрос об использовании данного опыта в других регионах РФ.

Третий пример — индустрия перевозок. В июне 2023 года грузовой автомобиль «КАМАЗ» проехал 684 км в беспилотном режиме по трассе М-11 «Нева» по маршруту Санкт-Петербург — Москва. Интересно, что тогда наиболее остро на этот эксперимент отреагировали профессиональные водители, которые высказали опасения, что такие грузовики лишат их работы. В это же время о внедрении данной технологии заявляет крупный российский ритейлер X5. В конце 2023 компания «Камаз» анонсирует новость о том, что беспилотный самосвал «Атлант 49» будет эксплуатироваться в угольных карьерах. В 2024 году несколько крупных российских компаний в тестовом режиме внедряют технологию беспилотного транспорта.

Военный потенциал

В 2017 году громкий скандал произошел в компании Google. Американский гигант начал сотрудничество с Министерством обороны США. Разработки компании в сфере машинного обучения должны были использоваться для различных задач американских военных. Например, более точное поражение целей дронами, распознование лиц и тд. Такое решение компании Google вызвало бурную реакцию как среди сотрудников, так и во внешней среде.

Artificial Intelligence Threats

Под давлением общественности компания публично отказалась от сотрудничества. Более того, в политике компании появился прямой запрет на использовании ИИ разработок для военных задач. В 2022 году другая крупная американская компания Boston Dynamics заявила, что не будет передавать свои разработки военным, хотя ранее у компании был подобный кейс.

В январе 2024 года компания OpenAI открыто заявила о том, что их разработки будут использоваться в военных целях. Они поменяли политику использования данных. Факт того, что из документа исчез прямой запрет на использования чат-бота в военных целях подметили журналисты, после чего представителям компании пришлось давать комментарии.

Нейросети и этика: дилеммы медицины, правосудия и приватности — кто должен отвечать?
Материал по теме
Нейросети и этика: дилеммы медицины, правосудия и приватности — кто должен отвечать?

Если говорить об угрозах использовании ИИ в военных целях, то в первую очередь встает вопрос о контроле технологий и ответственности за ошибки, цена которых — человеческая жизнь. И подобные случаи уже есть. В 2020 году боевой дрон выследил и атаковал цель в автономном режиме. Случай произошел в Ливии, официально вся информация по нему засекречена. Есть лишь некоторые аспекты, которые мы знаем из отчета Совета Безопасности ООН, который был опубликован годом спустя. Первое — атака произошла в Ливии. Второе — дрон был произведен на территории Турецкой республики. Третье — это была человеческая цель. То есть мы уже имеем реальный пример того, как искусственный интеллект нанес удар без контроля со стороны человека.

Глобально, если посмотреть на развитие военной робототехники с начала 30-х годов 20 века, то разработки улучшаются, но нет того, что качественно изменит подход. Именно искусственный интеллект теоретически может стать тем основанием, который полностью поменяет суть военных конфликтов. Именно поэтому правительства ряда стран так заинтересованы в сотрудничестве с частными компаниями, которые занимаются разработкой решений на основе искусственного интеллекта.

Андрей Наташкин
Читайте другие мои статьи: