Нейросети развились до такого уровня, что научились распространять дезинформацию

Чат-боты ChatGPT и Bing от OpenAI и Microsoft благодаря алгоритмам самообучения научились цитировать друг друга, распространяя фейковые новости. Машинный интеллект использовал ссылки на различные первоисточники, где была дезинформация
Нейросети развились до такого уровня, что научились распространять дезинформацию
Нейросети научились распространять дезинформацию
@ NicoElNino/Shutterstock

Об этом написали на портале  The Verge.

Любопытный эксперимент провели пользователи форума Hacker News. Один сообщил в шутку заведомо ложную информацию о том, что неройсеть Bard, представленная Google, закрылась. Его коллега по площадке воспользовался ChatGPT и создал новостной фейк на основе слов товарища.

Результат удивил всех. Пользователи спросили Bard о его закрытии, на что машина ответила, что уже не работает, а в качестве первоисточника использовался тот самый портал "Hacker News". Сеть Bing при таком же вопросе выдала аналогичный ответ о том, что Bard не работает, выдав уже 6 ссылок на фейковые источники.

На портале The Verge отметили, что если банальный шуточный эксперимент привёл к таким последствиям, то каким же катастрофическим будет размах введения людей в заблуждение, если кто-то всерьёз и целенаправленно захочет распространять дезинформацию, которая быстро разлетится по Интернету. Ведь чат-боты не отличают правду от лжи.