Главная | Регистрация | Вход | Личные сообщения () | ФОРУМ | Из жизни.ру | Модераторы: Pantera; IgChad | Контакты

Четверг, 25.04.2024, 00:16
Привет, Гость Нашей Планеты | RSS
ПОДПИСАТЬСЯ НА ИЗВЕЩЕНИЯ ОБ ОБНОВЛЕНИЯХ САЙТА


Форма входа
Логин:
Пароль:

плюсы баннерной рекламы

Загрузка...


Другие новости

Загрузка...


Статистика

Рейтинг@Mail.ru
Онлайн всего: 68
Пользователей: 68
Сейчас комментируют: 0


Новости сегодня
Сегодня материалов нет

Новости готовят...

Новостей: 28421

В архиве: 11391

Новостей: 8068

В архиве: 11931

Новостей: 4202

В архиве: 8413

Новостей: 3998

В архиве: 155

Новостей: 2831

В архиве: 4005

Новостей: 1329

В архиве: 338

Новостей: 1279

В архиве: 438

Новостей: 1035

В архиве: 17

Новостей: 948

В архиве: 6967

Новостей: 879

В архиве: 1480

Календарь

ВСЕ НОВОСТИВТОРАЯ ПЛАНЕТАФОРУМПРАВИЛА САЙТАДОБАВИТЬ МАТЕРИАЛ

Астрономия и космос [1380]Безумный мир [2114]Взаимоотношения людей [1055]Войны и конфликты [1527]
Гипотезы и версии [10751]Дом, сад, кулинария [3178]Животные и растения [2453]Здоровье, психология [4269]
Искусство, литература, поэзия [736]История, археология [3559]Мир вокруг нас [3006]Мировые новости [3592]
Наука и технологии [1124]Непознанное [3424]НЛО и уфология [880]Общество [7055]
Прогнозы ученых,исследования [481]Происшествия, чп, аварии [1414]Предсказания и астрология [879]Религии, учения [484]
Российские новости [5669]Советы и истории из жизни [846]Стихия, климат, экология [1926]Феномены и аномалии [915]
Фильмы и видео [4031]Частное мнение [5695]Это интересно! [4123]Юмор, афоризмы, притчи [2399]


16:09
National Interest: «Терминаторы» уже угрожают человечеству?

В этом месяце эксперты в сфере искусственного интеллекта взбудоражили инженерное сообщество, когда призвали ООН рассмотреть вопрос об ограничении или даже запрете автономных систем летального оружия. Всё внимание глобальной паутины было приковано к заявлению генеральный директора SpaceX Илона Маска, который предупредил, что искусственный интеллект (ИИ) может таить в себе большую опасность, чем Северная Корея, пишет Сандра Эрвин в статье для The National Interest.

Группа из 116 экспертов в области ИИ направили в ООН открытое письмо, в котором говорилось, что «автономные системы летального оружия могут привести к третьей революции в приёмах ведения войны». Говоря от имени компаний, специализирующихся в разработке ИИ и роботизированных систем, которые могут быть перепрофилированы в автономные системы летального оружия, эксперты заявили: «Мы осознаём особую ответственность за приближение этой грозы».

Маск назвал ИИ экзистенциальной угрозой для человечества и призвал взять все разработки под особый контроль. Однако часть экспертов, подписавших письмо, признались, что Маск чересчур нагнетает панику.


Беспилотный летательный аппарат ВМФ США В-47B совершил посадку на авианосец

Чем обернётся данное письмо для Пентагона, который направил огромные средства на разработку роботизированных систем вооружения, пока не ясно. Совещание ООН, на котором рассмотрят последствия развития автономных систем летального оружия, запланировано на ноябрь 2017 года. Эксперты призвали ООН найти средства, которые могли быть «предотвратить гонку вооружений в данной сфере, чтобы избежать возможных дестабилизирующих последствий и угроз для мирного населения».

Основатель и главный исполнительный директор компании по разработке программного обеспечения SparkCognition Амир Хусейн подписал это письмо, но заявил, что он выступает против любых действий, которые могли бы привести к замедлению технического прогресса. Он отметил, что первоначально инициатива была предложена профессором Университета Нового Южного Уэльса Тоби Уолшем и преследовала своей целью обратить внимание международной общественности на «потенциальные опасности, которые могут таить в себе автономные системы летального оружия, и на отсутствие широкой международной дискуссии по данному вопросу».

«Я уверен, что на данном этапе решение проблемы заключается в двойном увеличении инвестиций в разработку безопасных и прозрачных технологий ИИ», — заявил Хусейн.

Старший научный сотрудник аналитического центра «Атлантический совет»Август Коул считает, что необходимость обсуждения проблем автономных систем летального оружия присутствует, но запрет на развитие автономных систем, которые внедряются в различные сферы нашей жизни, нереализуем на практике. Коул призвал к развитию международных правовых и этических оснований.

Опасения также вызывает тот момент, что Пентагон пока не дал автономным системам летального оружия чёткого определения. В 2012 году Пентагон выпустил инструкцию по использованию автономных систем вооружений. Это единственный документ, которого придерживаются военные США при использовании подобных систем, заявил главный научный сотрудник НИЦ анализа военно-морских проблем (Center for Naval Analyses) Энди Илачинский. Согласно этому документу, оружие принадлежит к автономным системам, если «после его активизации оно может определять и поражать цели без дальнейшего вмешательства человека».

По мнению Илачинского, вопрос о введении новых руководящих принципов и инструкций в области автономных систем вооружений давно назрел. Научный совет министерства обороны США в 2012 и 2016 годах опубликовал два исследования по данному вопросу, но ни в одном из них «нет нормального определения, что такое автономные системы вооружений или ИИ», заявил Илачинский, добавив, что лучшие эксперты Пентагона так ничего и не смогли внятно сказать.

Тот факт, что программа AlphaGo, разработанная Google Deepmind, одержала победу над профессиональным игроком в логической настольной игре го, представляет собой важный прорыв в области ИИ, считает представитель НИЦ анализа военно-морских проблем. Однако в продвинутых системах, таких как AlphaGo «вы не можете провести инженерный анализ того, почему имело место то или иное действие», заявил Илачинский.

Матч в игру Го между программой АльфаГо и Ли Седола
Buster Benson

Матч в игру Го между программой АльфаГо и Ли Седола

«Для министерства обороны США важно осознать, что в один прекрасный момент они не смогут понять, почему система делает то, что она делает», — добавил Илачинский.

Причина громких заявлений Маска заключается в том, что до сих пор не понятно, что происходит в «мозгах» автономных систем после завершения их «обучения», считает сотрудник НИЦ анализа военно-морских проблем.

«Может оказаться, что вы не сможете предсказать поведение автономной системы, оснащенной ИИ. В этом смысле мне понятен страх, который испытывают такие люди, как Маск», — заявил Илачинский.

С другой стороны, слишком поздно говорить о запрете автономных систем, джин уже выпущен из бутылки. США не могу остановить разработки в данной области, поскольку другие страны, такие, как Китай, направляют все усилия на то, чтобы занять лидирующие позиции в сфере разработки ИИ. Кроме того, Пентагону постоянно приходится просчитывать возможные атаки врагов с использованием систем ИИ, которые в настоящий момент могут показаться немыслимыми. Например, любой может менее чем за тысячу долларов приобрести пару беспилотников, зайти на сайт Массачусетского технологического института, просмотреть исследования в области ИИ, скачать фрагменты компьютерного кода и загрузить их в беспилотники. Мы получим «рой умных дронов», это может стать «проблемой, которой будет трудно противостоять, потому что, во-первых, мы к этому не готовы, а во-вторых, это достаточно просто сделать за небольшие деньги», заявил научный сотрудник НИЦ анализа военно-морских проблем.




Оцените материал:




ПОДЕЛИСЬ С ДРУЗЬЯМИ:


Материалы публикуемые на "НАШЕЙ ПЛАНЕТЕ" это интернет обзор российских и зарубежных средств массовой информации по теме сайта. Все статьи и видео представлены для ознакомления, анализа и обсуждения. Мнение администрации сайта и Ваше мнение, может частично или полностью не совпадать с мнениями авторов публикаций. Администрация не несет ответственности за достоверность и содержание материалов,которые добавляются пользователями в ленту новостей.


Категория: Наука и технологии | Просмотров: 1402 | Добавил: ЧеLOVEк| | Теги: угрожают, уже, «Терминаторы», человечеству?, Interest:, National | Рейтинг: 3.0/6

В КОММЕНТАРИЯХ НЕДОПУСТИМА КРИТИКА САЙТА,АДМИНИСТРАТОРОВ,МОДЕРАТОРОВ и ПОЛЬЗОВАТЕЛЕЙ,КОТОРЫЕ ГОТОВЯТ ДЛЯ ВАС НОВОСТИ! УВАЖАЙТЕ ЧУЖОЙ ТРУД!
Всего комментариев: 1
1 Ferz  
0
.

Добавлять комментарии могут только зарегистрированные пользователи.
[ Регистрация | Вход ]


По этой теме смотрите:


Астрономия и космос [1380]Безумный мир [2114]Взаимоотношения людей [1055]Войны и конфликты [1527]
Гипотезы и версии [10751]Дом, сад, кулинария [3178]Животные и растения [2453]Здоровье, психология [4269]
Искусство, литература, поэзия [736]История, археология [3559]Мир вокруг нас [3006]Мировые новости [3592]
Наука и технологии [1124]Непознанное [3424]НЛО и уфология [880]Общество [7055]
Прогнозы ученых,исследования [481]Происшествия, чп, аварии [1414]Предсказания и астрология [879]Религии, учения [484]
Российские новости [5669]Советы и истории из жизни [846]Стихия, климат, экология [1926]Феномены и аномалии [915]
Фильмы и видео [4031]Частное мнение [5695]Это интересно! [4123]Юмор, афоризмы, притчи [2399]



Поиск


НАША БЕСЕДКА

СЕЙЧАС НА САЙТЕ:
Онлайн всего: 68
Пользователей: 68
Сейчас комментируют: 0

Мы комментируем

Загрузка...

На форуме

Интересное сегодня
Материалов за текущий период нет.

Loading...

Активность на форуме

Постов на форуме: 7720
Группа: Модераторы

Постов на форуме: 6352
Группа: Проверенные

Постов на форуме: 4194
Группа: Проверенные

Постов на форуме: 3889
Группа: Проверенные

Постов на форуме: 2879
Группа: Модераторы

Постов на форуме: 2864
Группа: Проверенные

Великие комментаторы:
Василёк
Комментариев: 20698
Группа: Друзья Нашей Планеты
Микулишна
Комментариев: 16982
Группа: Друзья Нашей Планеты
Ferz
Комментариев: 13019
Группа: Проверенные
nikolaiparasochko
Комментариев: 12909
Группа: Проверенные
игорьсолод
Комментариев: 12692
Группа: Проверенные
Благородный
Комментариев: 10541
Группа: Проверенные



18+