Чат-боты ChatGPT и Bing могут плодить фейки

113
Чат-боты ChatGPT и Bing могут плодить фейки

Нейросети ChatGPT и Bing научили распространять дезинформацию.

Чат-боты ChatGPT и Bing от OpenAI и Microsoft соответственно научились цитировать друг друга, распространяя фейковые новости, пишет портал The Verge.

Так, один из пользователей форума Hacker News решил пошутить о том, что нейросеть Bard, которую представила ранее Google, решили закрыть. Другой пользователь применил ChatGPT, чтобы создать фейковую новость об этом "событии" с помощью чат-бота. 

Когда чат-боту Bard задали вопрос, когда его закроют, он ответил, что уже закрыт, выбрав "Hacker News" в качестве источника. Когда такой же вопрос задали Bing, он тоже подтвердил закрытие Bard. У чат-бота при этом оказалось уже шесть ссылок на источники. 

Издание The Verge отмечает, что началось все из-за одной шутки на Hacker News. Портал предложил представить, что если бы реально захотелось вывести этих чат-ботов из строя. Такая забавная ситуация может нести серьезные последствия. Учитывая, что искусственный интеллект не отличает правду от лжи, чат-боты могут создавать целые потоки дезинформации, которые без какого-либо контроля быстро распространятся по интернету, вводя людей в заблуждение.

Фото ТЕЛЕПОРТ.РФ

При использовании материалов активная индексируемая гиперссылка на сайт ТЕЛЕПОРТ.РФ обязательна.

Содержимое данного поля является приватным и не предназначено для показа.

Простой текст

  • HTML-теги не обрабатываются и показываются как обычный текст
  • Строки и абзацы переносятся автоматически.
  • Each email address will be obfuscated in a human readable fashion or, if JavaScript is enabled, replaced with a spam resistent clickable link. Email addresses will get the default web form unless specified. If replacement text (a persons name) is required a webform is also required. Separate each part with the "|" pipe symbol. Replace spaces in names with "_".

Новости