Новостной обзор

Хроники «перемирия» 28.04.2017
128
Игровые новости 28.04.2017
112
Военная обстановка в Сирии 27 апреля 2017. Россия вывела часть авиации из Сирии
308
Абсурдные новости. 27 апреля 2017 года
260
Новости по-русски 28.04.2017
61

Лента новостей

19:50 28-04-2017
Польша отказалась терпеть памятники боевикам УПА на своей территории
19:35 28-04-2017
Санкции против России оказались неэффективными, заявили в ООН
15:46 28-04-2017
Больше не дружим: в Польше обиделись на Макрона
14:29 28-04-2017
Порошенко сравнил отмену виз ЕС с отходом Украины «от Российской империи»
14:09 28-04-2017
Под Тернополем надругались над памятником жертвам Холокоста
13:07 28-04-2017
Трамп спокойно отнесся к возможности «закрытия» правительства США
11:45 28-04-2017
Южная Корея отказалась платить Трампу за размещение THAAD
11:42 28-04-2017
Донецкий губернатор мечтает вернуть Ростовскую область в «лоно Украины»
09:21 28-04-2017
Постпред США: власти Сирии перепродают изъятые из конвоев ООН лекарства на черном рынке
08:25 28-04-2017
Это уже серьезная заявка США на войну с КНДР
17:47 27-04-2017
Санкт Петербург, 27.04.2017: военная техника ко Дню Победы
17:01 27-04-2017
Экипаж российского корабля спасен после крушения у берегов Турции
15:46 27-04-2017
Полиция применила слезоточивый газ на акции протеста школьников в Париже
14:50 27-04-2017
В Одессе возбудили дело после возвращения улицам советских названий
13:41 27-04-2017
В КНДР заявили, что не прекратят ядерные испытания, пока есть угроза от США
Все новости

Официальный курс гривны установлен на уровне 26,55 грн/дол.

В Японии полагают, что ракета КНДР пролетела около 50 километров

Китай и США привержены мирному решению ситуации на Корейском полуострове

ООН поддержал вывод войск Полисарио из района Гергерата в Западной Сахаре

Пучков прибыл в Бурятию, чтобы контролировать борьбу с пожарами

Архив публикаций

«    Апрель 2017    »
ПнВтСрЧтПтСбВс
 12
3456789
10111213141516
17181920212223
24252627282930


» » » Куда пихать искусственный интеллект при отсутствии обыкновенного?

Куда пихать искусственный интеллект при отсутствии обыкновенного?


Не смог пройти мимо очередной бучи в Пентагоне. Там нешуточные страсти кипят по поводу так называемого ИИ (искусственного интеллекта). Такие серьезные вещи говорят в недавно опубликованном докладе... Такие выводы делают...

Конечно, весь доклад читать смысла нет. Он огромен, но, по сути, его толком никто в США читать и не будет, для этого как раз интеллект и нужен. Хотя бы для того, чтобы понять, где истина, а где бред. Достаточно краткой выжимки.

В общем, речь идет о том, что США все-таки достигли определенных успехов в отражении кибератак, направленных против государственных структур и служб. И вскоре дипломная работа начинающего хакера на тему "Как взломать сервер Пентагона" станет действительно уделом избранных.

Однако, отталкиваясь именно от своих успехов в борьбе с хакерами, докладчики (К. Филдс, Р. Дэвил и П. Нильсен) говорят о том, что в ближайшие 25 лет США просто обязано выделить дополнительные ассигнования на программы разработки ИИ.

Почему?

"...стране необходимо принять немедленные меры, чтобы ускорить развитие военной технологии искусственного интеллекта. Академические и частные исследования искусственного интеллекта и автономных технологий значительно опережают развитие американских вооруженных сил. Существует реальный шанс, что мы сможем видеть повторение того, что случилось в кибервойне, где США были сосредоточены на отражении атак, и борьба далась нелегко, так как нас застали врасплох". 

Аргументация интеллектом не блещет, если так уж, серьезно. Какой, простите, ИИ, если с хакерами обычными еле-еле смогли справиться? Однако, доклад был заслушан и прокомментирован в СМИ уже не раз отпинанным нами Робертом Уорком. Он дал свои комментарии "Financial Times".

Уорк, комментируя доводы докладчиков, говорит о том, что Пентагону нужно собрать больше аналитической информации о возможностях ИИ других народов, а также разрабатывать решения "встречной автономии". Кроме того, авторы предполагают, что США просто обязаны влить гораздо больше ресурсов на разработку и тестирование обучения ИИ, таких, как автономное оружие, которое адаптируется к условиям боя.

Привет, "Скайнет"? Кто-то "Терминатора" насмотрелся? Так стоило бы посмотреть весь сериальчик. Там хорошо было показано, куда завели игрища с ИИ в целом и "Скайнетом" в частности. 

Но вывод однозначен: противостоять хакерам США может, а вот, не приведи господь, вражескому ИИ — без шансов. И, соответственно, "надо больше золота!"

А откуда, простите, этот вражий ИИ вдруг нарисуется? Для авторов все просто.

В качестве довода господа докладчики приводят в качестве довода то, что конкуренты, а именно Россия и Китай (внимание!!!) не имеют политики ограничений в разработке самостоятельных летальных военных единиц.

Бабах! Нет, так-то понятно, откуда все мировое зло для США грозит катаклизмом, без проблем. Вывод напрашивается только один: если в России и Китае не запрещено создавать роботов-убийц и наделять их искусственным интеллектом, то, безусловно, они это сделают.

Иначе почему эти русские и китайцы не наложили 10 тысяч запретов на разработку ИИ? Точно, 146% минимум, что в секретных лабораториях России и Китая сотни ученых уже сидят и ломают головы над проектами роботов, наделенных ИИ и способных уничтожать все живое. 

"Это не означает, что США должны последовать их примеру, но возможно, потребуется технология, которая сможет помешать смертоносным системам с ИИ, прежде чем станет слишком поздно".

Нет, ну я стоя аплодирую авторам. Данных о наличии какого-никакого ИИ у России и Китая нет. Данных о роботах-убийцах и прочей фигатории тоже нет. Про данные о боевых роботах с ИИ мы тоже молчим, но запилить систему противодействия этим роботам надо уже сегодня. Завтра может быть поздно.

Удобнейшие аргументы для запроса финансирования долгоиграющих проектов. Действительно, что плохого в том, чтобы обеспечить себя работой на ближайшие 25 лет? Учитывая, что делать ничего не надо, то, думаю, неплохо так можно устроиться. 

Как предполагают научные советники американского министерства обороны, ключевые направления развития военной техники на ближайшие 25 лет — это искусственный интеллект и автономия.

По мнению Уорка, наиболее перспективная область исследований — усиление взаимодействия между искусственным интеллектом и человеком, когда решение принимается совместно. То есть, этот самый ИИ и человек будут совместно решать, по кому открыть огонь, а по кому не стоит. Перспективка та еще... 

Слава всевышнему, правда, речь о том, чтобы предоставить военным роботам полную автономию, пока не идет. По словам Уорка, ближайшие 10-15 лет американские военные намерены сосредоточиться на разработках машин, которые смогут действовать и принимать решения лишь в рамках определенных, заранее заданных параметров.

Опять же по заявлениям Уорка, аналогичная работа сегодня ведется в военных лабораториях России и Китая, однако у США есть ряд преимуществ в сравнении с конкурентами, в том числе значительно больший опыт исследований. Но — "надо больше золота!"

Еще один вопрос, который волнует Пентагон, — как удержать собственные технологические разработки в секрете как можно дольше. Учитывая то, о чем говорилось в начале, — повышенное внимание хакерского сообщества к секретам США и явно недостаточные возможности по защите.

Но и тут у Уорка есть ответ, который по интеллектуальности тянет на пяток килопсак. Уорк говорит о том, что трюк (именно трюк, да!) состоит в том, чтобы «демонстрировать возможности, которые достаточно серьезны, чтобы заставить соперников сомневаться в том, что они способны одержать победу. В то же самое время «главные разработки, способные оказать решающее влияние на ход боевых действий, необходимо держать под строжайшей защитой, подобно военному резерву».

И это заместитель министра обороны... Искусственный интеллект, говорите? Обычным бы обзавелись для начала...

После этого говорить о распиле у нас даже язык не поворачивается. Детский сад, младшая группа.

Все по теме: армия США

АКТУАЛЬНО

Добавьте комментарий

  • winkwinkedsmileam
    belayfeelfellowlaughing
    lollovenorecourse
    requestsadtonguewassat
    cryingwhatbullyangry
Войти через
Кликните на изображение чтобы обновить код, если он неразборчив
Наверх