Фальшивый козырь в руках террористов: что мир искусственного интеллекта угрожает


Опубликованно 07.07.2019 00:27

Фальшивый козырь в руках террористов: что мир искусственного интеллекта угрожает

Российские ученые исследовали и классифицировали использованием искусственного интеллекта (ИИ) в отношении международной информационно-психологической безопасности. Особое внимание уделялось борьбе с агрессором использование KI-террористы. Результаты исследования опубликованы в журнале Россия в глобальной политике.

Риск злонамеренного использования КИ

Потенциальной опасности искусственного интеллекта для человечества было не раз тема художественных работ и на сегодняшний день является одним из наиболее обсуждаемых вопросов научно-технического развития. Хотя "Сильный ИИ", который думает бычьих способный к самостоятельной системой, и, возможно, с самосознанием и волей, еще долго не создан, различные расширенную версию "Слабого ИИ" выполняют особые задания, которые вымысел еще 10 лет назад. Использование KI в благих целях (например, в медицине) уже приносит неоспоримые преимущества. Однако в руках террористических и других преступных организаций постепенно таким образом и все более совершенные технологии ИИ более страшное оружие, чем ядерное.

Сказать эмоциональная КИ в состоянии: "Я работать не в настроении"

Исследователи из разных стран активно изучают угрозы, злонамеренное применение ИИ полезно для общества в целом и отдельных сфер человеческой деятельности, будь то политика, экономика, военные и т. д. Однако прямой угрозы международной информационно-психологической безопасности до сих пор не были выделены в самостоятельную область просмотра. Тем временем ИИ использовать для дестабилизации международных отношений путем целенаправленного высокотехнологичной информационно-психологического воздействия на людей очевидный большой опасности.

Авторы исследования предложили классификацию угроз вредоносного использования искусственного интеллекта на основе ряда критериев, включая объем, скорость и форму распределения. Применение классификации помогает найти пути противодействия и разработать инструменты для ответа.

"Будущее ИИ цена технология может снизить угрозу терактов принципиально нового террора. Не предлагал исключить использование чата, чтобы убедить построить сообщение о Болонья мероприятия и потенциальных жертв о том, чтобы навестить его. Чтобы противостоять этому желательно ознакомление общества с новыми угрозами для лечения Инструкция для граждан с осторожностью дистанционные контакты с людьми, с которыми вы лично не знакомы. Выходная информация может сертификация публичных мероприятий, которые обращают внимание реальность под Gebr о них. Конечно, задача, техник, защита баз данных о событиях и механизмы для сертификации, в данном случае", - сказал РИА Новости профессор кафедры международной безопасности и внешнеполитической деятельности России Ранхигс Дарья Основаны.

Современное состояние техники и возможности ИИ позволяет ряд принципиально новых угроз информационно-психологической безопасности человека.

Использование технологии "неправильных людей" и "Deep фейк" для международных провокаций

Американская технология NVIDIA недавно поделился результатами работы поколения-конкурентная сеть, тренируется самостоятельно генерировать образы людей ("fake people"). Нервозность в секунду в высоком разрешении создает образы несуществующих людей людей, может любой культурные и этнические особенности, эмоции, настроение и основаны на бесконечный коллекция изображений реальных людей В будущем не допустит повторения этого опыта другими разработчиками исключено. При этом подобные снимки могут быть использованы преступниками для всех видов провокации, которые признают только общество может знать системного политического.

"Технология "Deep фейк" может синтезировать изображение и голос человека. Вы уже начали, для создания видео снимков мировых лидеров, включая президента США Дональд Трамп и президент России Владимир Путин. Ролики Deep Fake способны манипулировать поведением широкой аудитории и может быть использовано в информационно-психологическом противоборстве (IPP) с целью спровоцировать финансовую панику или война", – сказал Paste РИА Новости ведущий научный сотрудник института актуальных международных проблем Дипломатической академии МИД РФ, профессор МГУ Евгений.

8. Декабря 2017 года, 08:00Искусственный интеллект: то, что люди интеллектуальных железо ожидать

Анализ тональности – класс методов контент-анализа в компьютерной лингвистике, специально для автоматизированного выявления в текстах эмоционально окрашенной лексики и эмоциональной оценки авторов. Анализ тональности будет. широкий ряд источников, таких как блоги, статьи, форумы, опросы и т. д. Это может быть очень эффективным инструментом в API, что, например, подтверждает высокий интерес к подобным разработкам в настоящее время со стороны руководства Командования специальных операций Соединенных Штатов (The United States Special Operations Command (SOCOM)

"Прогностические оружие": прогнозирование поведения человека на основе данных социальных сетей

В 2012 году в США "агентства передовых исследований в сфере разведки" (IARPA) была запущена программа "обнаружения событий на основе предыдущих моделей с использованием денежных суррогатов" (EMBERS). Цель развития названы ранее беспорядков говорю на основе использования КИ с определением даты, места, протестующих групп населения.

Система обрабатывает данные из СМИ и социальных сетей, а также источники более высокого качества, например, экономические показатели. Проникновение таких программ в руки террористов, конечно, тоже крайне опасно. В этом случае вероятной угрозы может. проведение террористических актов во время крупных социальных услуг Еще одним критерием выбора целей теракта может степень социальной и психологической напряженности в различных областях.

По мнению авторов исследования, в качестве контрмеры предвестниковый анализ государственные и наднациональные власти могут себе по предотвращению социальной напряженности (своевременное принятие социальных, экономических и политических мер, направленных на стабильность в долгосрочной перспективе).

Кроме того, террористические группировки могут нанести репутационный ущерб за счет использования ботов во время политических кампаний, а также для привлечения новых сторонников или организации убийств политиков

Захват беспилотников и роботов-инфраструктуры

Программированное транспортных систем с управлением на основе ГИ объектами могут быть удобны для высокотехнологичных терактов. Захват террористов контроль над управлением транспортного средства, в крупном городе может привести к многочисленным жертвам, паники и создания психологического климата, который облегчает осуществление других преступных действий.

Коммерческие системы можно использовать для развертывания беспилотных или автономных транспортных средств с целью доставки взрывчатых веществ и создания аварий. Ряд крупных катастроф способна вызвать переполох в мировых СМИ и причинить значительный ущерб информационной и психологической безопасности.

13. Январь 2016, 11:03Роботы среди людей: что они делают и как она понимаетЧто это робот, где они используются, как в их отличии от автоматических механизмов? Ли права у искусственно созданных разумных существ? Ответы на эти и другие вопросы в новой инфографике от «Социального навигатора» МИА «Россия сегодня» в сотрудничестве с НОВАЯ МИФИ.

Исследователи из Ранхигс и Дипломатической академии Министерства иностранных дел Российской Федерации заложили основы своего исследования систематический анализ роли КИ в области безопасности, метод сценариев анализа, исторических аналогий и дело-анализ. Вместе с коллегами из университета Упсала (Швеция) Грег Саймон Creator стали авторы исследования предстоящего издания книги "терроризм и новые технологии в информационно-психологического противоборства: новые риски, новые возможности по противодействию террористической угрозе" с участием исследователей из 11 стран.

По инициативе российского исследователя проблеме роли ИИ в контексте угрозы международной информационно-психологической безопасности активно обсуждаются и обсуждались на международных конференциях и автономных международных научно-исследовательских семинарах. Среди них – последняя конференция под эгидой комиссии РФ по делам ЮНЕСКО и ряда других российских и международных структур в Ханты-Мансийске 9 – 12. Июнь. На заседании секции по теме злостное использование КИ, образованной при поддержке Европейско-российскими экспертами-сети связи-управление (ARES), принял активное участие губернатор Ханты-Мансийского автономного округа Наталья Владимировна Комарова. В будущем IV на американском форуме в Санкт – Петербурге 1-3. Октября 2019 года, Европейская конференция о влиянии искусственного интеллекта и робототехники 31. Октябрь – 1. Ноября 2019 года. Авторы исследования выступили с научными докладами в Аргентине, Уругвае, Бразилии, Южной Африке и Италии.

По мнению специалистов Ранхигс и Дипломатической академии, по всей России крайне важно формирование долгосрочных целевых программ, так как проблема ИИ и международной информационно-психологической безопасности-это проблема ближайшего будущего.



Категория: Технологии