
Европол, правоохранительное агентство Европейского союза, предупредил о серьезных последствиях использования искусственного интеллекта ChatGPT для киберпреступлений и других вредоносных действий.
Европол заявил, что программное обеспечение искусственного интеллекта, финансируемое Microsoft, может быть использовано для подделки личности или фишинговых атак, а также для распространения дезинформации.
Чему научили создатели искусственный интеллект ChatGPT
Программу можно попросить составить текст на множество возможных тем, и она делает это, используя обширный набор знаний, которым ее «обучили» во время разработки. В результате может получиться аутентичная статья, в которой используются подробные знания, ранее имевшиеся только у экспертов в данной области.
Программы искусственного интеллекта также могут писать эссе, стихи или компьютерный код, когда им дается такое задание, и их называют самым значительным достижением в технологии с момента появления iPhone более 15 лет назад.
Предупреждение прозвучало в то время, когда возникло множество юридических и этических вопросов, связанных с использованием программного обеспечения искусственного интеллекта.
«Поскольку возможности больших языковых моделей (LLM), таких как ChatGPT, активно совершенствуются, потенциальная эксплуатация преступниками этих типов систем искусственного интеллекта представляет собой мрачную перспективу», — заявил Европол, представляя свой первый технологический отчет.
Чат-бот ChatGPT и преступники
В нем указывается на опасное применение ChatGPT в трех областях преступной деятельности.
«Способность ChatGPT создавать чрезвычайно реалистичный текст делает его полезным инструментом для фишинга», — заявили в Европоле.
Фишинг — термин, образованный от английского слова «fishing» — это злонамеренная попытка получить конфиденциальную информацию, такую как имена пользователей, пароли и данные кредитных карт, путем принятия преступником чужого имени в электронном сообщении.
Благодаря своей способности воспроизводить языковые шаблоны, напоминающие стиль речи конкретных лиц или групп, чат-бот может использоваться преступниками для нацеливания на жертв, заявили в агентстве ЕС.
ChatGPT также может быть использован как идеальный инструмент для создания дезинформации.
«Он позволяет пользователям генерировать и распространять сообщения, отражающие определенное повествование, с относительно небольшими усилиями».
Преступники с небольшими техническими знаниями также могут использовать ChatGPT для создания вредоносных кодов, сказал Европол.
Конкуренция в сфере ИИ
Тем временем Google выпустил для тестирования в Великобритании и США своего конкурента ChatGPT — чат-бота Bard.
Google объявила о разработке Bard в марте 2023 года, всего через две недели после того, как Microsoft объявила о новых многомиллиардных инвестициях в OpenAI — создателя ChatGPT и других инструментов искусственного интеллекта.
Microsoft инвестирует миллиарды в OpenAI с 2019 года.
Владелец Tesla Илон Маск назвал искусственный интеллект одним из «самых больших рисков», с которыми сталкивается человеческая цивилизация.
«Честно говоря, я думаю, что нам нужно ввести правила безопасности ИИ. Подумайте о любой технологии, которая потенциально опасна для человека, например, о самолетах, автомобилях или медицине. У нас есть регуляторы, которые следят за общественной безопасностью автомобилей, самолетов и медицины», — сказал Маск.
«Я думаю, что мы, вероятно, должны иметь такой регуляторный надзор за искусственным интеллектом, потому что я считаю, что он действительно представляет больший риск для общества, чем автомобили, самолеты или медицина».
«Меня беспокоит то, что с искусственным интеллектом… если что-то пойдет не так, реакция может быть слишком медленной с точки зрения регулирования», — добавил он.