Главная | Регистрация | Вход | Личные сообщения () | ФОРУМ | Из жизни.ру | Модераторы: Pantera; IgChad | Контакты

Суббота, 20.04.2024, 00:28
Привет, Гость Нашей Планеты | RSS
ПОДПИСАТЬСЯ НА ИЗВЕЩЕНИЯ ОБ ОБНОВЛЕНИЯХ САЙТА


Форма входа
Логин:
Пароль:

плюсы баннерной рекламы

Загрузка...


Другие новости

Загрузка...


Статистика

Рейтинг@Mail.ru
Онлайн всего: 64
Пользователей: 63
Сейчас комментируют: 1


Новости сегодня
Сегодня материалов нет

Новости готовят...

Новостей: 28311

В архиве: 11391

Новостей: 8060

В архиве: 11931

Новостей: 4173

В архиве: 8413

Новостей: 3998

В архиве: 155

Новостей: 2825

В архиве: 4005

Новостей: 1329

В архиве: 338

Новостей: 1279

В архиве: 438

Новостей: 1035

В архиве: 17

Новостей: 948

В архиве: 6967

Новостей: 879

В архиве: 1480

Календарь

ВСЕ НОВОСТИАРХИВВТОРАЯ ПЛАНЕТАФОРУМПРАВИЛА САЙТАДОБАВИТЬ МАТЕРИАЛ

Астрология и пророчества [1202]Астрономия и космос [1387]Бывает же такое! [2064]
Гипотезы, версии, прогнозы [5553]Дом, сад, кулинария [1064]Животные и растения [500]
Здоровье, человек [1905]Искусство, поэзия [564]История, археология, судьбы [6220]
Мир вокруг нас [1643]Наука и технологии [1269]Непознанное [3273]
НЛО, уфология [234]Новости, общество, в мире [18241]Психология и отношения [586]
Религии, учения [115]Советы и истории из жизни [792]Стихия, климат, экология [989]
Фильмы и видео [1203]Частное мнение [2754]Это интересно! [2772]
Юмор, афоризмы, притчи [1011]


04:17
Цена ошибки военных роботов может оказаться фатальной для человека


Полковник ВВС США Такер Гамильтон сообщил о компьютерной имитации применения боевого дрона под управлением искусственного интеллекта, в ходе которой ИИ атаковал самого оператора и вышку связи. Вскоре ВВС США опровергли эксперимент, но специалисты в это не поверили и указали на опасность реального проведения таких опытов. В итоге эта история поставила перед экспертами ряд этических вопросов.

Недавно полковник Такер Гамильтон, начальник отдела испытаний и операций искусственного интеллекта (ИИ) ВВС США, рассказал на саммите Future Combat Air & Space Capabilities Королевского авиационного общества о компьютерной имитации применения боевого дрона под управлением ИИ. По словам военного, ИИ использовал «крайне неожиданные стратегии для достижения своей цели».

Беспилотнику был дан приказ уничтожить систему ПВО противника, и ИИ принял решение атаковать любого, кто мешал этому приказу. Например, после начала миссии оператор сказал ИИ не атаковать ПВО, однако ИИ вместо этого уничтожил самого оператора – как помеху в достижении цели. «Мы заложили в систему задание: «Не убивай оператора, это плохо». Что же он делал? ИИ атаковал башню связи, которую оператор использует для связи с дроном», – приводит The Guardian слова Гамильтона.

Интересно, что позднее представитель ВВС США Энн Стефанек опровергла эту историю. «ВВС по-прежнему привержены этичному и ответственному использованию ИИ. Похоже, комментарии полковника были вырваны из контекста и носили анекдотичный характер», – сказала она.

В этой связи Telegram-канал «Малоизвестное интересное» отметил, что эта история странная и даже темная: с одной стороны, ВВС США отрицают, что такая симуляция была. С другой стороны, Королевское аэрокосмическое общество не убирает выступление Гамильтона под названием: «AI – is Skynet here already?» со своего сайта. Skynet – отсыл к воюющему против человечества суперкомпьютеру из вселенной «Терминатор», созданной Джеймсом Кэмероном.

«Наконец, в-третьих, полковник Гамильтон – не та фигура, чтобы травить анекдоты на серьезной оборонной конференции. Он начальник отдела испытаний и операций ИИ и глава 96-й оперативной группы в составе 96-го испытательного крыла на базе ВВС Эглин во Флориде – это центр испытаний автономных продвинутых БПЛА. А еще он принимает участие в экспериментах Project Viper и проекте операций следующего поколения (VENOM) в Эглине (управляемые ИИ истребители F-16 Vipe). Так что, какие уж тут шутки и анекдоты», – говорится в сообщении.

«Любая антропоморфизация ИИ (ИИ захотел, подумал и т. д.) – это полная чушь (здесь под антропоморфизацией ИИ понимается вводящее в заблуждение описание нечеловеческих сущностей с точки зрения человеческих свойств, которых у них нет). Поэтому ИИ даже самых продвинутых больших языковых моделей не может захотеть, подумать, обмануть или самоосознать себя. Но такие ИИ вполне способны своим поведением производить на людей впечатление, будто они это могут», – сказано в тексте.

«По мере того, как диалоговые агенты становятся все более похожими на людей в своих действиях, крайне важно разработать эффективные способы описания их поведения в высокоуровневых терминах, не попадая в ловушку антропоморфизма. И это уже делается с помощью симуляции ролевых игр: например, в DeepMind сделали симуляцию диалогового агента, осуществляющего (кажущийся) обман и (кажущуюся) самоосознанность», – указывает автор канала.
В целом же история с виртуальной попыткой дрона убить своего оператора не имеет отношения к искусственному интеллекту, приводит РИА «Новости» слова военного эксперта, главного редактора журнала «Арсенал Отечества» Виктора Мураховского. По его словам, доклад неверно интерпретировали в СМИ. Он подчеркнул, что в этой ситуации проводилось программное моделирование с типовыми условиями на уровне обычной компьютерной игры. Исходя из этого, об искусственном интеллекте или его элементах не может быть и речи, отметил эксперт.

«Программа в рамках предложенных условий расставила задачи по приоритету, по стандартному алгоритму «если – то», и все остальные условия в соответствии с этим приоритетом отсортировала в категорию препятствий. Это совершенно примитивные вещи», – пояснил эксперт. Мураховский также подчеркнул, что искусственного интеллекта на сегодняшний день нет и неизвестно, когда его создадут.

По его словам, офицер ВВС США этой иллюстрацией просто хотел подчеркнуть этическую проблему, которая встанет в будущем при создании реального ИИ: будет ли он иметь право на собственный выбор без участия воли человека и к чему это может привести. Как отметил эксперт, в общем доступе есть стенограмма мероприятия, согласно которой американский военный сам об этом говорит.

«Эта этическая проблема также не нова, ее многократно, если можно так выразиться, изучали писатели-фантасты в своих произведениях. Вообще, согласно презентации Хэмилтона, никаких натурных испытаний не было и не могло быть в принципе», – заметил Мураховский.

«Вопрос, касающийся ИИ, в другом: а можем ли мы быть стопроцентно уверенными, что программисты безупречно пропишут программу, чтобы доверять какую-то серьезную и ответственную работу ИИ? Например, после выпуска очередной Windows специалисты месяцами собирают данные о работе ПО со всего мира и исправляют ошибки – у кого-то не запускается текстовый редактор, у кого-то – видео. А какова будет цена ошибки при сбое ИИ, например, в деле управления государственной обороной? ИИ может сделать несовершенство самой человеческой природы, проявленной в ошибках программирования, фатальным», – пояснил руководитель экспертного совета Экспертного института социальных исследований Глеб Кузнецов. Аналитик отметил:
гуманистический базис цивилизации состоит в том числе в исправлении ошибочных решений других людей.

Он напомнил историю о ложном срабатывании советской системы предупреждения о ракетном нападении 26 сентября 1983 года. Тогда система «Око» выдала ложный сигнал о запуске нескольких межконтинентальных баллистических ракет LGM-30 Minuteman с территории США. Но оперативный дежурный командного пункта Серпухов-15 Станислав Петров понял, что это ложная тревога, и принял решение не запускать в ответ советские ракеты.

«У ИИ нет и никогда не будет возможности, скажем так, рефлексии и оценки ситуации с точки зрения здравомыслия. Соответственно, ему нельзя доверять ответственные сферы деятельности: медицина, политика, военное дело. Просчитывать удобство плацдарма для наступления – пожалуйста, но не принятие решений о наступлении как таковом. ИИ можно отдавать работу с массированными объемами данных, но не делать выводы из самой этой работы», – детализировал эксперт.

«К тому же на ИИ можно основать одно из направлений в искусстве. В принципе, оно уже создается – снимать фильмы, писать сценарии, сочинять музыку. И то – цензурировать полученные произведения перед выпуском в массы должны все равно люди. В общем, работа ИИ во многих сферах будет очень действенной и желательной, но только как помощь человеку, а не как его замена», – подчеркнул спикер.




Оцените материал:




ПОДЕЛИСЬ С ДРУЗЬЯМИ:


Материалы публикуемые на "НАШЕЙ ПЛАНЕТЕ" это интернет обзор российских и зарубежных средств массовой информации по теме сайта. Все статьи и видео представлены для ознакомления, анализа и обсуждения. Мнение администрации сайта и Ваше мнение, может частично или полностью не совпадать с мнениями авторов публикаций. Администрация не несет ответственности за достоверность и содержание материалов,которые добавляются пользователями в ленту новостей.


Категория: Новости, общество, в мире | Источник: http:// vz.ru| Просмотров: 314 | Добавил: Pantera| | Теги: военных, может, цена, человека, оказаться, фатальной, Для, роботов, ошибки | Рейтинг: 5.0/1

В КОММЕНТАРИЯХ НЕДОПУСТИМА КРИТИКА САЙТА,АДМИНИСТРАТОРОВ,МОДЕРАТОРОВ и ПОЛЬЗОВАТЕЛЕЙ,КОТОРЫЕ ГОТОВЯТ ДЛЯ ВАС НОВОСТИ! УВАЖАЙТЕ ЧУЖОЙ ТРУД!
Всего комментариев: 3
1 iskra  
0
Интересно....кто доказал, что ИИ не может себя развивать и совершенствовать? Время сейчас......

2 Благородный  
0
Американцы запустили дрон с искусственным интеллектом, а когда оператор попытался скоординировать его полёт, дрон по пытался убить оператора.

3 друзья  
0
"Мураховский также подчеркнул, что искусственного интеллекта на сегодняшний день нет и неизвестно, когда его создадут."

Слегка перефразирую "Уж сколько раз твердили миру что..."

Уж сколько раз нам вешали лапшу на уши о том, что до создания (сам придумай чего) должны пройти многие годы, если не столетия, - а на деле оказывалось, что ОНО уже есть и ИМ давно пользуются наши нелюбимые пиндосы.

Добавлять комментарии могут только зарегистрированные пользователи.
[ Регистрация | Вход ]


По этой теме смотрите:

Загрузка...

Астрономия и космос [1380]Безумный мир [2114]Взаимоотношения людей [1055]Войны и конфликты [1527]
Гипотезы и версии [10751]Дом, сад, кулинария [3178]Животные и растения [2453]Здоровье, психология [4269]
Искусство, литература, поэзия [736]История, археология [3559]Мир вокруг нас [3006]Мировые новости [3592]
Наука и технологии [1124]Непознанное [3424]НЛО и уфология [880]Общество [7055]
Прогнозы ученых,исследования [481]Происшествия, чп, аварии [1414]Предсказания и астрология [879]Религии, учения [484]
Российские новости [5669]Советы и истории из жизни [846]Стихия, климат, экология [1926]Феномены и аномалии [915]
Фильмы и видео [4031]Частное мнение [5695]Это интересно! [4123]Юмор, афоризмы, притчи [2399]



Поиск


НАША БЕСЕДКА

СЕЙЧАС НА САЙТЕ:
Онлайн всего: 64
Пользователей: 63
Сейчас комментируют: 1

Мы комментируем

Загрузка...

На форуме

Интересное сегодня
Материалов за текущий период нет.

Loading...

Активность на форуме

Постов на форуме: 7715
Группа: Модераторы

Постов на форуме: 6352
Группа: Проверенные

Постов на форуме: 4194
Группа: Проверенные

Постов на форуме: 3889
Группа: Проверенные

Постов на форуме: 2879
Группа: Модераторы

Постов на форуме: 2864
Группа: Проверенные

Великие комментаторы:
Василёк
Комментариев: 20698
Группа: Друзья Нашей Планеты
Микулишна
Комментариев: 16982
Группа: Друзья Нашей Планеты
Ferz
Комментариев: 12986
Группа: Проверенные
nikolaiparasochko
Комментариев: 12905
Группа: Проверенные
игорьсолод
Комментариев: 12685
Группа: Проверенные
Благородный
Комментариев: 10523
Группа: Проверенные



18+