Новостной обзор

Ще не вмерла? 23.08.2017
193
Украина. Не прожить ей этот август без потерь
253
Хроники «хлебного перемирия»07 августа 2017
217
Хроники «хлебного перемирия»06 августа 2017
186
Хроники «хлебного перемирия»05 августа 2017
177

Лента новостей

09:23 24-08-2017
Польша закрыла границы для боевиков «АТО»
01:21 24-08-2017
Российский посол в Судане Ширинский найден мёртвым
18:30 23-08-2017
Руслан Бортник: Даже без Донбасса и Крыма Украина остается расколотой
17:58 23-08-2017
Трамп пригрозил «закрыть» американское правительство
17:53 23-08-2017
В США рассказали, сколько неучтенных активов держат в офшорах россияне
17:13 23-08-2017
Украинец запатентовал проект беспилотного боевого колесного робота (фото)
07:32 23-08-2017
Телефонный разговор с Ангелой Меркель, Эммануэлем Макроном и Петром Порошенко
07:30 23-08-2017
МИД России: начала подготовку ответных мер на санкции США
06:55 23-08-2017
Ще не вмерла? 23.08.2017
06:51 23-08-2017
Русофобия вредит вашему кошельку
14:33 22-08-2017
Интернет-демократия в США: вместо помощи ультраправым – оружие для негров?
11:51 22-08-2017
Папа Римский: права мигрантов важнее нацбезопасности
11:12 22-08-2017
Украинский волонтер высказался против парада показухи, ура-патриотизма с флагами и в вышиванках
11:00 22-08-2017
Ляшко рекомендует пограничникам стрелять в Саакашвили на поражение
10:44 22-08-2017
Экс-президент Украины видит Путина на Донбассе и считает регион слабым звеном
Все новости

Приюту не досталось денег от «благотворительной» акции «Бикини-автомойка»

Валерий Тян покинул пост главы НАК «Узбекистон хаво йуллари»

Нацбанк Таджикистана заморозит счета террористов на основе списка ГКНБ

На сегодня установлена ​​цена на банковские металлы

Бьет — значит может убить. Что изменил вывод домашних побоев из УК

Архив публикаций

«    Август 2017    »
ПнВтСрЧтПтСбВс
 123456
78910111213
14151617181920
21222324252627
28293031 



» » » Куда пихать искусственный интеллект при отсутствии обыкновенного?

Куда пихать искусственный интеллект при отсутствии обыкновенного?


Не смог пройти мимо очередной бучи в Пентагоне. Там нешуточные страсти кипят по поводу так называемого ИИ (искусственного интеллекта). Такие серьезные вещи говорят в недавно опубликованном докладе... Такие выводы делают...

Конечно, весь доклад читать смысла нет. Он огромен, но, по сути, его толком никто в США читать и не будет, для этого как раз интеллект и нужен. Хотя бы для того, чтобы понять, где истина, а где бред. Достаточно краткой выжимки.

В общем, речь идет о том, что США все-таки достигли определенных успехов в отражении кибератак, направленных против государственных структур и служб. И вскоре дипломная работа начинающего хакера на тему "Как взломать сервер Пентагона" станет действительно уделом избранных.

Однако, отталкиваясь именно от своих успехов в борьбе с хакерами, докладчики (К. Филдс, Р. Дэвил и П. Нильсен) говорят о том, что в ближайшие 25 лет США просто обязано выделить дополнительные ассигнования на программы разработки ИИ.

Почему?

"...стране необходимо принять немедленные меры, чтобы ускорить развитие военной технологии искусственного интеллекта. Академические и частные исследования искусственного интеллекта и автономных технологий значительно опережают развитие американских вооруженных сил. Существует реальный шанс, что мы сможем видеть повторение того, что случилось в кибервойне, где США были сосредоточены на отражении атак, и борьба далась нелегко, так как нас застали врасплох". 

Аргументация интеллектом не блещет, если так уж, серьезно. Какой, простите, ИИ, если с хакерами обычными еле-еле смогли справиться? Однако, доклад был заслушан и прокомментирован в СМИ уже не раз отпинанным нами Робертом Уорком. Он дал свои комментарии "Financial Times".

Уорк, комментируя доводы докладчиков, говорит о том, что Пентагону нужно собрать больше аналитической информации о возможностях ИИ других народов, а также разрабатывать решения "встречной автономии". Кроме того, авторы предполагают, что США просто обязаны влить гораздо больше ресурсов на разработку и тестирование обучения ИИ, таких, как автономное оружие, которое адаптируется к условиям боя.

Привет, "Скайнет"? Кто-то "Терминатора" насмотрелся? Так стоило бы посмотреть весь сериальчик. Там хорошо было показано, куда завели игрища с ИИ в целом и "Скайнетом" в частности. 

Но вывод однозначен: противостоять хакерам США может, а вот, не приведи господь, вражескому ИИ — без шансов. И, соответственно, "надо больше золота!"

А откуда, простите, этот вражий ИИ вдруг нарисуется? Для авторов все просто.

В качестве довода господа докладчики приводят в качестве довода то, что конкуренты, а именно Россия и Китай (внимание!!!) не имеют политики ограничений в разработке самостоятельных летальных военных единиц.

Бабах! Нет, так-то понятно, откуда все мировое зло для США грозит катаклизмом, без проблем. Вывод напрашивается только один: если в России и Китае не запрещено создавать роботов-убийц и наделять их искусственным интеллектом, то, безусловно, они это сделают.

Иначе почему эти русские и китайцы не наложили 10 тысяч запретов на разработку ИИ? Точно, 146% минимум, что в секретных лабораториях России и Китая сотни ученых уже сидят и ломают головы над проектами роботов, наделенных ИИ и способных уничтожать все живое. 

"Это не означает, что США должны последовать их примеру, но возможно, потребуется технология, которая сможет помешать смертоносным системам с ИИ, прежде чем станет слишком поздно".

Нет, ну я стоя аплодирую авторам. Данных о наличии какого-никакого ИИ у России и Китая нет. Данных о роботах-убийцах и прочей фигатории тоже нет. Про данные о боевых роботах с ИИ мы тоже молчим, но запилить систему противодействия этим роботам надо уже сегодня. Завтра может быть поздно.

Удобнейшие аргументы для запроса финансирования долгоиграющих проектов. Действительно, что плохого в том, чтобы обеспечить себя работой на ближайшие 25 лет? Учитывая, что делать ничего не надо, то, думаю, неплохо так можно устроиться. 

Как предполагают научные советники американского министерства обороны, ключевые направления развития военной техники на ближайшие 25 лет — это искусственный интеллект и автономия.

По мнению Уорка, наиболее перспективная область исследований — усиление взаимодействия между искусственным интеллектом и человеком, когда решение принимается совместно. То есть, этот самый ИИ и человек будут совместно решать, по кому открыть огонь, а по кому не стоит. Перспективка та еще... 

Слава всевышнему, правда, речь о том, чтобы предоставить военным роботам полную автономию, пока не идет. По словам Уорка, ближайшие 10-15 лет американские военные намерены сосредоточиться на разработках машин, которые смогут действовать и принимать решения лишь в рамках определенных, заранее заданных параметров.

Опять же по заявлениям Уорка, аналогичная работа сегодня ведется в военных лабораториях России и Китая, однако у США есть ряд преимуществ в сравнении с конкурентами, в том числе значительно больший опыт исследований. Но — "надо больше золота!"

Еще один вопрос, который волнует Пентагон, — как удержать собственные технологические разработки в секрете как можно дольше. Учитывая то, о чем говорилось в начале, — повышенное внимание хакерского сообщества к секретам США и явно недостаточные возможности по защите.

Но и тут у Уорка есть ответ, который по интеллектуальности тянет на пяток килопсак. Уорк говорит о том, что трюк (именно трюк, да!) состоит в том, чтобы «демонстрировать возможности, которые достаточно серьезны, чтобы заставить соперников сомневаться в том, что они способны одержать победу. В то же самое время «главные разработки, способные оказать решающее влияние на ход боевых действий, необходимо держать под строжайшей защитой, подобно военному резерву».

И это заместитель министра обороны... Искусственный интеллект, говорите? Обычным бы обзавелись для начала...

После этого говорить о распиле у нас даже язык не поворачивается. Детский сад, младшая группа.

Все по теме: армия США

АКТУАЛЬНО

Добавьте комментарий

  • winkwinkedsmileam
    belayfeelfellowlaughing
    lollovenorecourse
    requestsadtonguewassat
    cryingwhatbullyangry
Войти через
Кликните на изображение чтобы обновить код, если он неразборчив
Наверх