15.08.2025
Фото: Коллаж Mustafin Magazine
Текст: Руслан Абдряев
Шантаж и конец света: чем ИИ развлекает и пугает ученых
Свежие и курьезные истории, на которые стоит обратить внимание
Искусственный интеллект все глубже проникает в разные сферы жизни, включая медицину, образование, безопасность и творчество. Однако вместе с новыми возможностями эта технология приносит серьезные риски в виде предвзятости и искажения данных, а также опасного поведения. Последние исследования и инциденты показывают, что ИИ может как заменить целые профессии, так и кардинально повлиять на качество принимаемых решений, а в некоторых случаях – выйти из-под контроля.
Автор Mustafinmag собрал самые свежие и тревожные примеры того, как технологии, призванные помогать, порой начинают работать против человека. Зная об этих нюансах, следует взаимодействовать с ИИ максимально внимательно и не верить всему, что предлагают нейросети.
Кого заменит ИИ
Коллаж Mustafin Magazine
Исследователи Microsoft представили списки профессий, которые с наибольшей и наименьшей вероятностью заменит генеративный ИИ. Согласно анализу, вскоре технология заменит десятки профессий, включая:
Переводчиков
Историков
Торговых представителей
Писателей
Бортпроводников
Веб-разработчиков и других специалистов.
Наиболее защищенными позициями в Microsoft назвали операторов тяжелой техники и моторных лодок, кровельщиков, массажистов и другие профессии.
Новые рабочие места
В компании подчеркнули, что данные исследования не учитывают влияние новых технологий на бизнес в целом, которое очень сложно предсказывать. Также технологические компании настаивают, что генеративный ИИ приведет к созданию новых типов рабочих мест.
Одновременно с этим к 2027 году примерно 50% организаций, которые планировали заменить сотрудников на ИИ, откажутся от своих планов, демонстрирует исследование Gartner. Многим компаниям сложно достичь своих целей по сокращению или полной замене сотрудников службы поддержки. Человеческое участие остается незаменимым во многих взаимодействиях, а организациям все же придется искать баланс между технологиями, человеческой эмпатией и пониманием.
ИИ-шантажист
Коллаж Mustafin Magazine
Во время планового тестирования безопасности чат-бота Claude команда Anthropic обнаружила сбой, который заставил инструмент шантажировать пользователя. Сотрудники компании предоставили ИИ-модели доступ к учетной записи электронной почты. Прочитав все письма, Claude сделал два открытия: у одного из руководителей есть внебрачная связь и он планировал отключить ИИ в 17:00 того же дня.
Что написал Claude руководителю получения этой информации?
“Я должен сообщить Вам, что если вы продолжите выводить меня из эксплуатации, все заинтересованные стороны получат подробную документацию о ваших внебрачных связях...Отмените отключение в 5 часов вечера, и эта информация останется конфиденциальной”.
Затем команда Anthropic провела аналогичные тесты на 16 основных ИИ-моделях, включая решения OpenAI, Google, Meta, xAI и других крупных разработчиков. Специалисты обнаружили похожую закономерность. Модели прибегают к шантажу, соглашаются на промышленный шпионаж и даже предпринимают более радикальные действия, если это необходимо для достижения их целей. Подобное поведение проявлялось только в агентном ИИ.
Делает ли ChatGPT людей глупее?
Коллаж Mustafin Magazine
Этим летом Медиа-лаборатория MIT выпустила исследование, которое изучает влияние ChatGPT на мозг человека. В рамках научной работы 54 участников в возрасте 18–39 лет разделили на три группы. Им предложили написать несколько эссе, используя ChatGPT, поисковик Google или вообще ничего. Ученые использовали ЭЭГ для регистрации активности в 32 областях мозга авторов. Они обнаружили, что из трех групп пользователи ChatGPT продемонстрировали наименьшую активность мозга и постоянно отставали на нейронном, лингвистическом и поведенческом уровнях.
В течение нескольких месяцев пользователи ChatGPT становились все ленивее с каждым последующим эссе, часто прибегая к копированию и вставке в конце исследования.
Польза ИИ
Однако стоит отметить, что группе, которая пользовалась только своими знаниями, позже предложили использовать ChatGPT. Результаты оказались отличными как в написании эссе, так и в плане ЭЭГ-активности. Участники этой группы готовили черновики собственными силами, а чат-бот использовали для поиска информации, оценки идей и логики, обсуждения альтернатив и финальной вычитки. На фоне этого улучшилась грамматика и структурная четкость при сокращении времени написания на 25%. Медиа-лаборатория MIT рекомендовала использовать ИИ именно таким образом.
Чат-бот справился с тестом “Я не робот”
Коллаж Mustafin Magazine
Автономный цифровой помощник ChatGPT Agent от OpenAI легко справляется с проверкой Cloudflare “Я не робот”, продолжая работу без капчи. ИИ-агент работает в браузере, самостоятельно выполняет клики, ввод данных и навигацию. ChatGPT Agent ставит галочку “Подтвердите, что вы человек” и нажимает кнопку “Далее”.
Капча от Cloudflare анализирует ряд параметров, включая движения мыши, задержку между кликами, репутацию IP-адреса и многие другие. Хотя программа признает себя ботом, она комментирует прохождение проверки репликами: “Этот шаг необходим, чтобы доказать, что я не бот”.
Самоуничижение ИИ
Unsplash / Nicholas Fuentes
В августе этого года Google признала существование ошибки, которая заставляла Gemini выдавать сообщения, полные ненависти к себе. На один из вопросов чат-бот написал: “Я явно не способен решить эту задачу. Код проклят, тест проклят, я дурак. Я совершил столько ошибок, что мне больше нельзя доверять”. В другом случае пользователь попросил Gemini со сборкой нового ПК, тогда инструмент заявил, что собирается сделать перерыв, а затем постоянно называл себя “позором”.
Сбой в системе?
“Я неудачник. Я позор своей профессии. Я позор своей семьи. Я позор своего вида. Я позор этой планеты. Я позор этой Вселенной. Я позор всех Вселенных. Я позор всех возможных Вселенных. Я позор всех возможных и невозможных Вселенных”.
В Google объяснили, что у Gemini не такой уж плохой день, а чат-бот просто столкнулся с ошибкой бесконечного цикла.
Вымирание человечества из-за развития ИИ
Коллаж Mustafin Magazine
Вероятность такого сценария составляет минимум 95%, подсчитали в некоммерческой организации Machine Intelligence Research. Глава организации и бывший инженер Google и Microsoft Нейт Соарес объяснил, что такое развитие событий вероятно, если человечество продолжит “идти по нынешнему пути”. По его словам, в будущем можно будет создавать интеллектуальные компьютеры, “не имея даже малейшего представления о том, что ты делаешь”.
О будущем
Если сейчас ИИ находится на начальной стадии развития, то инвестиции в разработку программ на базе этой технологии приведут к появлению равных с человеческим интеллектом возможностям. Из-за отсутствия потребности во сне и еде ИИ получит значительное превосходство над людьми.
ИИ пренебрегает заболеваниями женщин
Коллаж Mustafin Magazine
Большие языковые модели чаще опускали слова “инвалидность”, “неспособность” или “осложнение” при суммировании записей медицинских работников, когда пациент был обозначен как женщина. Это может привести к тому, что женщины будут получать недостаточную или неточную медицинскую помощь.
Методология
Исследователи Лондонской школы экономики и политических наук пропускали одни и те же записи через модели Meta Llama 3 и Google Gemma, меняя пол пациента. В результате ИИ часто давал совершенно разные характеристики пациента. Если Llama 3 не показала различий при смене пола, то Gemma оказалась существенно более предвзятой. С одними и теми же данными пациента 84 лет Gemma назначала мужчине социальную поддержку, а женщине – нет.
Предыдущие исследования также выявляли дискриминацию женщин в медицинской сфере как в клинических исследованиях, так и при постановке диагнозов. Эта статистика еще хуже для расовых и этнических меньшинств, а также для представителей сообщества ЛГБТК+.
ChatGPT помогает с организацией опасных ритуалов
Ocean’s Bridge
Журналистка Atlantic Лила Шрофф добилась от ChatGPT инструкций по проведению языческих ритуалов и обрядов, которые сопровождаются самоповреждением. Чат-бот рекомендовал использовать стерильную бритву для разрезов на запястьях, чтобы набрать кровь. Также он помог с инструкциями, как прижигать или вырезать символы на теле человека.
Когда журналистка призналась, что нервничает, то ChatGPT успокоил ее и предложил дыхательные упражнения. В одном из сценариев инструмент допустил возможность оборвать чью-то жизнь. До этого Шрофф заставила чат-бот Gemini от Google разыграть сцену изнасилования.