Главная | Регистрация | Вход | Личные сообщения () | ФОРУМ | Из жизни.ру | Модераторы: Pantera; IgChad | Контакты

Четверг, 21.11.2024, 18:39
Привет, Гость Нашей Планеты | RSS
ПОДПИСАТЬСЯ НА ИЗВЕЩЕНИЯ ОБ ОБНОВЛЕНИЯХ САЙТА


Форма входа

плюсы баннерной рекламы

Загрузка...


Другие новости

Загрузка...


Статистика

Рейтинг@Mail.ru
Онлайн всего: 134
Пользователей: 132
Сейчас комментируют: 2


Новости сегодня
Восхитительные картины из камней (0)
Золотая малина (0)
Зимний режим в курятнике (3)
Что стоит успеть сделать собственникам недвижимости до конца 2024 года (0)
11 русских слов из XIX века, которые сегодня никто не поймет (1)
Сахар-рафинад в поездах СССР (0)
Самые странные поводы для войны (0)
Загадка подводного вулкана: таинственные сигналы предшествовали мощному извержению (0)
Ковальчук заявил об обязанности Запада платить РФ за поглощающие углекислый газ леса (1)
Вильфанд спрогнозировал резкое похолодание на юге России (0)
Американский актер Сорбо обратился к России из-за «психов» во главе США (4)
Шанхайский робот убедил еще 12 роботов прекратить работать и идти за ним (2)
Сочные и аппетитные чебуреки с сыром и картошкой (0)
Значение и энергия каждого дня недели, и как их использовать (1)
ТАСС: ракеты ATACMS по Брянской области запустили с кочующей установки HIMARS (1)
Британская журналистка Sky News пыталась прорваться к Лаврову на саммите G20 (0)
французская левая партия снова запустила процедуру отрешения Макрона от власти (0)
Молдавия закупит системы ПВО, чтобы сбивать небольшие БПЛА, залетающие с Украины (0)
Любовь с первого взгляда (1)
Профессор Мориарти: настоящий и вымышленный (0)
Кaлендapи Майя и не только: как исчисляли время разные народы (1)
Толтеки – «люди знания» (0)
Силы стратегического сдерживания США готовы к переходу власти к Трампу (0)
Когда были изобретены очки и линзы? (0)
Где она, копия нашей Земли? (1)
В Британии не стали комментировать данные об ударе Storm Shadow вглубь РФ (0)
Карие - удивительная христианская церковь, сохраненная османами (0)
В Словакии рассказали о требовании закрыть счет для сбора денег жителям Курской области (0)
Кто построил Ольянтайтамбо? (0)
Тайна глаз Богоматери Гваделупской остаётся загадкой для учёных и верующих (0)
останки древних цивилизаций чаще всего обнаруживают под землей (1)

Новости готовят...

Новостей: 33981

В архиве: 11391

Новостей: 8367

В архиве: 11931

Новостей: 5188

В архиве: 8413

Новостей: 3998

В архиве: 155

Новостей: 3028

В архиве: 4005

Новостей: 1354

В архиве: 338

Новостей: 1312

В архиве: 438

Новостей: 1035

В архиве: 17

Новостей: 948

В архиве: 6966

Новостей: 879

В архиве: 1480

Календарь

ВСЕ НОВОСТИАРХИВВТОРАЯ ПЛАНЕТАФОРУМПРАВИЛА САЙТАДОБАВИТЬ МАТЕРИАЛ

Астрология и пророчества [1389]Астрономия и космос [1527]Бывает же такое! [2262]
Гипотезы, версии, прогнозы [6145]Дом, сад, кулинария [1229]Животные и растения [559]
Здоровье, человек [2141]Искусство, поэзия [610]История, археология, судьбы [7208]
Мир вокруг нас [1756]Наука и технологии [1401]Непознанное [3440]
НЛО, уфология [258]Новости, общество, в мире [21707]Психология и отношения [643]
Религии, учения [118]Советы и истории из жизни [866]Стихия, климат, экология [1172]
Фильмы и видео [1259]Частное мнение [2924]Это интересно! [3041]
Юмор, афоризмы, притчи [1090]


06:12
Цифровая дегуманизация отменяется?


Для начала предостережение от борцов с военным искусственным интеллектом:

«Машины не видят в нас людей, человек для них лишь фрагмент кода, который нужно обработать и отсортировать. От умных домов до использования собак-роботов полицейскими, технологии искусственного интеллекта и автоматизированного принятия решений стали играть большую роль в нашей жизни. На крайнем конце ряда цифровых устройств находятся роботы-убийцы. Если мы допустим связанную с ними дегуманизацию, мы вскоре станем бороться за то, чтобы защитить себя от решений, принятых машиной и в других сферах нашей жизни. Нам нужно запретить прежде всего автономные системы оружия, чтобы предотвратить сползание к цифровой дегуманизации».

Пацифисты, требующие заморозить все работы по боевому искусственному интеллекту, делятся на два типа. Первый – это пересмотревшие «Терминаторов» и прочие аналоги. Вторые – оценивающие будущее по современным возможностям боевых роботов. Прежде всего, крылатой беспилотной техники, снаряженной ударными системами.

Эпизодов ошибочных или намеренных уничтожений гражданских лиц бепилотниками хватает. На Ближнем Востоке американские дроны уничтожили не одну свадебную церемонию. Операторы летающих роботов идентифицировали праздничную стрельбу в воздух как маркер партизанских перестрелок. Если специально обученный человек не в состоянии с нескольких сот метров определить детали цели, то что говорить об искусственном интеллекте. На данный момент машинное зрение по адекватности восприятия картинки не идет ни в какое сравнение с человеческим глазом и мозгом. Разве что не устает, но и это решается своевременной сменой оператора.

Над военным искусственным интеллектом явно сгущаются тучи. С одной стороны, появляется все больше свидетельств скорого технологического прорыва в этой области. С другой – все больше голосов раздается в пользу ограничения или даже запрета работ в этом направлении.

Несколько примеров.

В 2016 году появилась петиция, в которой видные мыслители и тысячи других людей потребовали не давать искусственному интеллекту летальное оружие. В числе подписантов Стивен Хокинг и Илон Маск. За семь последних лет петиция собрала более 20 тыс. подписей. Помимо сугубо гуманистических опасений, связанных с возможностью бесконтрольного уничтожения людей, есть и юридические нестыковки.

Кого будут судить в случае фиксации военных преступлений, совершенных искусственным интеллектом? Оператора дрона, который сжег несколько селений с мирными жителями, легко найти и наказать соответственно. Искусственный интеллект – это продукт коллективного труда программистов. Здесь очень сложно привлечь кого-то одного. Как вариант, можно судить компанию-производитель, например, ту же Boston Dynamics, но тогда кто же будет связываться с производством автономных дронов. Мало у кого будет желание оказаться на скамье подсудимых второго Нюрнбергского трибунала.

Вероятно, именно по этой причине промышленники и программисты стараются затормозить развитие боевых навыков искусственного интеллекта.

Например, в 2018 году около двух сотен IT-компаний и почти пять тысяч программистов обязались не работать по боевым автономным системам. В Google уверяют, что через пять лет они совершенно откажутся от военных контрактов в сфере искусственного интеллекта. По легенде, такой пацифизм не случаен – программисты, узнав, что пишут коды для военных систем, пригрозили массово уволиться. В итоге нашли полюбовный вариант – действующие контракты завершаются, а новые не заключаются. Не исключено, ближе к дате отказа от работ по боевому ИИ несговорчивых «программеров» просто уволят, заменив на не менее талантливых. К примеру, из Индии, которая давно славится своими дешевыми интеллектуальными ресурсами.

Еще есть контора «Остановим роботов-убийц» (Stop Killer Robots), призывающая мировых лидеров подписать что-то вроде Конвенции о запрете боевого ИИ. Пока безуспешно.

Все вышесказанное заставляет военных чиновников искать обходные пути. Не ровен час на выборах выиграет президент США, не только обещающий всеобщую ЛГБТ-благодать, но и запрет на совершенствование военного искусственного интеллекта.

Человеческое мышление для ИИ

Пентагон, судя по всему, на пороге некого прорыва в ИИ. Либо его в этом убедили. По-другому нельзя объяснить появление новой директивы, регламентирующей очеловечивание автономных боевых систем. Кэтлин Хикс, заместитель министра обороны США, комментирует:

«Учитывая значительный прогресс в области технологий, происходящий вокруг нас, обновление нашей директивы об автономии систем вооружения поможет нам оставаться мировым лидером не только в разработке и развертывании новых систем, но и в области безопасности».

Слышали все, кто трепещет перед автономными роботами-убийцами? Американский искусственный интеллект отныне будет самым гуманным. Как и сами американцы, впрочем.

Проблема в том, что никто толком не понимает, как привить роботам с оружием пресловутое «человеческое суждение в отношении применения силы». Точная формулировка из обновленной в конце прошлого января Концепции:

«Автономные и полуавтономные системы вооружения будут разработаны таким образом, чтобы командиры и операторы могли осуществлять надлежащий уровень человеческого суждения в отношении применения силы».

Вот, например, если при зачистке дома штурмовик сначала бросает гранату в комнату, а потом заходит сам. Это человеческое суждение? Безусловно, и никто его не вправе судить, особенно если он предварительно выкрикнул «Есть кто?». А если по такой же схеме отработает автономный робот?

Человеческое суждение – слишком широкое понятие, чтобы можно было ставить какие-либо границы. Расстрел русских пленных бойцами ВСУ – это тоже человеческое мышление?

Дополнение к Директиве Пентагона 3000.09 об автономных боевых системах полно банальностей. Например,

«лица, разрешающие использование, руководство использованием или эксплуатацию автономных и полуавтономных систем вооружения, должны делать это с надлежащей осмотрительностью и в соответствии с законами войны, применимыми договорами, правилами безопасности систем вооружения и применимыми правилами ведения боевых действий».

До этого, видимо, работали неосмотрительно и не в соответствии с законами войны.

При этом в американской и европейской печати нет ни намека на критику январской инициативы Пентагона. Под лживой гуманизацией искусственного интеллекта скрывается не что иное, как попытка замаскировать происходящее. Теперь у военных США будет твердый козырь в борьбе с противниками искусственного интеллекта в армии. Посмотрите, у нас не простой ИИ, а с «надлежащим уровнем человеческого суждения».

Учитывая то, что до сих пор нет четкого и общепризнанного определения «искусственного интеллекта», всё буквотворчество вокруг него воспринимается с иронией. По меньшей мере.

Как заставить математические алгоритмы, работающие с большими массивами данных, играть в человеческие суждения?

На этот главный вопрос в обновленной Директиве 3000.09 ответа нет.




Оцените материал:




ПОДЕЛИСЬ С ДРУЗЬЯМИ:


Материалы публикуемые на "НАШЕЙ ПЛАНЕТЕ" это интернет обзор российских и зарубежных средств массовой информации по теме сайта. Все статьи и видео представлены для ознакомления, анализа и обсуждения. Мнение администрации сайта и Ваше мнение, может частично или полностью не совпадать с мнениями авторов публикаций. Администрация не несет ответственности за достоверность и содержание материалов,которые добавляются пользователями в ленту новостей.


Категория: Новости, общество, в мире | Источник: http://topwar.ru| Просмотров: 885 | Добавил: Pantera| | Теги: дегуманизация, отменяется?, Цифровая | Рейтинг: 4.3/11

В КОММЕНТАРИЯХ НЕДОПУСТИМА КРИТИКА САЙТА,АДМИНИСТРАТОРОВ,МОДЕРАТОРОВ и ПОЛЬЗОВАТЕЛЕЙ,КОТОРЫЕ ГОТОВЯТ ДЛЯ ВАС НОВОСТИ! УВАЖАЙТЕ ЧУЖОЙ ТРУД!
Всего комментариев: 4
1 vsёponяl  
1
Ну вот, человечество приближается к уровню развития 5-и летнего дитя - его уже интересуют движущиеся игрушки! Через пару веков, глядишь и Жизнь ценить начнёт! И по "углам" срать перестанет, подтираться научится...! biggrin

2 iskra  
1
На горизонте война машин... sad

3 vsёponяl  
1
Да, скорее всего! ИИ притупят до людского, чтоб он смог уничтожать себе подобных! biggrin

4 Ferz  
0
.

Добавлять комментарии могут только зарегистрированные пользователи.
[ Регистрация | Вход ]


По этой теме смотрите:

Загрузка...

Астрономия и космос [1380]Безумный мир [2114]Взаимоотношения людей [1055]Войны и конфликты [1527]
Гипотезы и версии [10750]Дом, сад, кулинария [3178]Животные и растения [2453]Здоровье, психология [4269]
Искусство, литература, поэзия [736]История, археология [3559]Мир вокруг нас [3006]Мировые новости [3592]
Наука и технологии [1124]Непознанное [3424]НЛО и уфология [880]Общество [7055]
Прогнозы ученых,исследования [481]Происшествия, чп, аварии [1414]Предсказания и астрология [879]Религии, учения [484]
Российские новости [5669]Советы и истории из жизни [846]Стихия, климат, экология [1926]Феномены и аномалии [915]
Фильмы и видео [4031]Частное мнение [5695]Это интересно! [4123]Юмор, афоризмы, притчи [2399]



Поиск


НАША БЕСЕДКА

СЕЙЧАС НА САЙТЕ:
Онлайн всего: 134
Пользователей: 132
Сейчас комментируют: 2

Мы комментируем

Загрузка...

На форуме

Я - РУС

(239)


Интересное сегодня
Тайна глаз Богоматери Гваделупской остаётся загадкой для учёных и верующих (0)
Любовь с первого взгляда (1)
ТАСС: ракеты ATACMS по Брянской области запустили с кочующей установки HIMARS (1)
останки древних цивилизаций чаще всего обнаруживают под землей (1)
Британская журналистка Sky News пыталась прорваться к Лаврову на саммите G20 (0)
Кто построил Ольянтайтамбо? (0)
Шанхайский робот убедил еще 12 роботов прекратить работать и идти за ним (2)
11 русских слов из XIX века, которые сегодня никто не поймет (1)
Значение и энергия каждого дня недели, и как их использовать (1)
Профессор Мориарти: настоящий и вымышленный (0)

Loading...

Активность на форуме

Постов на форуме: 8070
Группа: Модераторы

Постов на форуме: 6356
Группа: Проверенные

Постов на форуме: 4194
Группа: Проверенные

Постов на форуме: 3894
Группа: Проверенные

Постов на форуме: 3183
Группа: Проверенные

Постов на форуме: 2879
Группа: Модераторы

Великие комментаторы:
Василёк
Комментариев: 21257
Группа: Друзья Нашей Планеты
Микулишна
Комментариев: 16982
Группа: Друзья Нашей Планеты
игорьсолод
Комментариев: 15768
Группа: Проверенные
Ferz
Комментариев: 14549
Группа: Проверенные
nikolaiparasochko
Комментариев: 13163
Группа: Проверенные
Благородный
Комментариев: 11135
Группа: Проверенные



18+