Нейросети ChatGPT и Bing научили распространять дезинформацию.
Нейросети ChatGPT и Bing научили распространять дезинформацию.
Чат-боты ChatGPT и Bing от OpenAI и Microsoft соответственно научились цитировать друг друга, распространяя фейковые новости, пишет портал The Verge.
Так, один из пользователей форума Hacker News решил пошутить о том, что нейросеть Bard, которую представила ранее Google, решили закрыть. Другой пользователь применил ChatGPT, чтобы создать фейковую новость об этом "событии" с помощью чат-бота.
Когда чат-боту Bard задали вопрос, когда его закроют, он ответил, что уже закрыт, выбрав "Hacker News" в качестве источника. Когда такой же вопрос задали Bing, он тоже подтвердил закрытие Bard. У чат-бота при этом оказалось уже шесть ссылок на источники.
Издание The Verge отмечает, что началось все из-за одной шутки на Hacker News. Портал предложил представить, что если бы реально захотелось вывести этих чат-ботов из строя. Такая забавная ситуация может нести серьезные последствия. Учитывая, что искусственный интеллект не отличает правду от лжи, чат-боты могут создавать целые потоки дезинформации, которые без какого-либо контроля быстро распространятся по интернету, вводя людей в заблуждение.
Фото ТЕЛЕПОРТ.РФ
При использовании материалов активная индексируемая гиперссылка на сайт ТЕЛЕПОРТ.РФ обязательна.