ChatGPT научили составлять достоверные фишинговые письма

Новости дня России и мира
3 Ноябрь 2023
0 / 5 (0 голосов)
Технологии

TechRadar: хакеры будут использовать ИИ при планировании фишинговых атак

Фото: Brett Jordan / Unsplash

В будущем хакеры будут использовать искусственный интеллект (ИИ), который научат организовывать фишинговые атаки. Об этом сообщает издание TechRadar.

Журналисты медиа сослались на отчет фирмы IBM Security Intelligence X-Force, специалисты которой изучили возможности генеративного ИИ при планировании фишинговых атак. Авторы исследования составили несколько фишинговых писем, некоторые из них были написаны чат-ботом ChatGPT.

Затем специалисты попросили участников исследования оценить качество мошеннических писем и назвать, какие из них показались наиболее достоверными. Как оказалось, большая часть респондентов проголосовала в пользу составленных живыми людьми писем, но «ИИ проиграл с небольшим отставанием».

Специалисты IBM Security Intelligence X-Force заявили, что ИИ составляет слишком большие тексты и делает акцент на теме письма, что не внушает человеку доверия. Однако эксперты отметили, что ChatGPT составил качественное фишинговое письмо за пять минут и пять запросов, тогда как человек потратил бы на это 16 часов.

Ранее группа ученых из США и Японии назвала ChatGPT плохим инструментом для диагностики заболеваний. По словам специалистов, в некоторых случаях диагностирования ортопедических заболеваний точность чат-бота составила всего четыре процента.

На ту же тему
Виджеты

Это место для ваших персональных виджетов. Ставьте из админки - рубрики, архивы, метки, календарь, свежие комментарии, произвольное меню и др.

Свежие записи
Лучшие способы получения займа без отказа
0 / 5 (0 голосов)
Лучшие цвета для окраски дома снаружи в деревне
0 / 5 (0 голосов)
Кто должен заменить электросчетчик в частном доме в деревне
0 / 5 (0 голосов)
Как начать сдавать квартиру посуточно — пошаговая инструкция
0 / 5 (0 голосов)
Когда подешевеет вторичное жилье
1 / 5 (3 голосов)
Новости дня России и мира © 2024 Наверх