The Wall Street Journal заявляет, что роботы научились делать фейковые новости, настолько профессионально, что не каждый человек отличит где правда, а где вымысел.
Текст такой новости еще не идеален, но роботы пишут их очень быстро и они могут выступать, как основа для людей и дальнейшего использования их для дезинформации через каналы связи с обществом. В данное время лучшим способом побороть поток фейковых новостей остается умение здраво рассуждать и отделять “белое от черного”. — сообщает thebell
Лучшими умами мира разрабатываются системы для генерации текстов на базе искусственного интеллекта. Такие например, как Рид Хоффман основатель LinkedIn, спонсировал разработку системы генерации GPT-2.
Схема работы GPT-2 заключается в том, что система генерирует текст из определенной базы и предыдущих слов. База состоит из 8 миллионов интернет страниц и около 40 Гб разных текстов, а сама модель “предсказания” имеет 1,5 миллиардов разнообразных параметров.
Такой механизм удалось протестировать, было выбрано 500 случайных людей и большая часть их них признали, что сгенерированные тексты правдивые. Команда разработчиков приняла решение о том, что не будут выпускать в общество такую систему, так как боится, что ею могут начать злоупотребять злоумышленники. По их мнению, такие системы могут использовать недобросовестные СМИ.
Управление по исследованиям проектов Министерства обороны США также заявило, что такие тексты фейковые могут использоваться в “информационной войне”, поэтому министерство начало программу Semantic Forensics, которая будет направлена на борьбу с фейковыми новостями.
Журналисты смогли создать с помощью проекта Grover статью похожую на стиль своего издания. В тексте статьи даже улавливался четкий стиль их газеты. Генерация такой статьи заняла всего 30 секунд.
Как же распознать оригинал и фейковую статью?
Самым простым способом является поиск робота через робота, то есть через машинный поиск. Но людям без наличия таких систем генерации текстов следует применять здравое мышление. Ведь для робота реальный мир не видится в общей картине, например, робот не понимает, что люди пока не могут промышленно осваивать луну, так как это будет стоить намного больше, чем например 40 миллионов долларов о которых может сообщить фейковая новость сгенерированная тем же роботом.
Также, роботам тяжело извлекать общий смысл из текста, поэтому робот не сможет понять почему у единорога один рог, а не четыре. В мире растущих технологий очень важно уметь анализировать информацию и уметь разделять ее на оригинал на фейк.
Подписывайтесь на канал «Хвилі» в Telegram, на канал «Хвилі» в Youtube, страницу «Хвилі» в Facebook