Изначально систему обучали предсказывать следующее слово в предложении. Однако технология оказалась более «способной» и смогла генерировать целые тексты. ИИ выдерживает стилистику оригинала и не выходит за рамки заданной темы. Кроме того, в отличие от более простых текстовых генераторов, алгоритмы не «забывает» и не допускает ошибок в длинных предложениях.
Приложение разработано на базе искусственного интеллекта. Программа способна сочинять фейковую информацию, основываясь на одном вводном предложении.
Например, когда в систему ввели первое предложение романа-антиутопии Джорджа Оруэлла «1984» («Был яркий холодный апрельский день, часы били тринадцать»), она поняла, что это художественное произведение с элементами фантастики, и продолжила повествование так: «Я ехал на своей машине на новую работу в Сиэтл. Заправил, вставил ключ и завел. Представил, каким будет этот день. Спустя сотню лет. В 2045 году я был бы школьным учителем в бедной провинции сельского Китая. Начинал с истории Китая и истории науки».
Когда же искусственному интеллекту предоставили несколько первых параграфов статьи The Guardian на тему «Брекзита» (выхода Великобритании из Европейского союза), он выдал новостную заметку с поддельными цитатами, приписываемыми политику Джерему Корбину, упоминанием границы с Ирландией и ответами от представителя премьер-министра.
Но! Разработчики воздержались от публикации полных результатов исследования. Они попросту испугались злоупотреблений и неправомерного использования технологии. Так как посчитали, что такая новая технология может причинить вред: выдаваемые ИИ-моделью GPT-2 лживые новости кажутся слишком убедительными.
То есть, я правильно понимаю, что в широкое производство «модель» не пустят, а будут использовать как «оружие ограниченного поражения»? То есть доставать в «трудную минуту» как джокера из рукава?