NOMAD (Номад) - новости Казахстана




КАЗАХСТАН: Самрук | Нурбанкгейт | Аблязовгейт | Январская трагедия | правительство Бектенова | правительство Смаилова | Казахстан-2050 | RSS | кадровые перестановки | дни рождения | бестселлеры | Каталог сайтов Казахстана | Реклама на Номаде | аналитика | политика и общество | экономика | оборона и безопасность | семья | экология и здоровье | творчество | юмор | интервью | скандалы | сенсации | криминал и коррупция | культура и спорт | история | календарь | наука и техника | американский империализм | трагедии и ЧП | акционеры | праздники | опросы | анекдоты | архив сайта | Фото Казахстан-2050











Поиск  
Пятница 19.04.2024 11:14 ast
09:14 msk

Глубокие фейки и политическая манипуляция
О технологиях создания провокационной пропаганды
30.10.2018 / политика и общество

Леонид САВИН, fondsk.ru, 29 октября

Американские СМИ с некоторых пор, как заводные, пишут о "российском вмешательстве в американские выборы через Интернет". Крупные международные и специализированные издания методично повторяют легенды о "русских троллях" и "хакерах из ГРУ". А появляющиеся "доказательства" доказывают нечто обратное.
Проект Google показал, как за 100 долларов можно создать иллюзию того, что некая российская компания пыталась влиять на общественное мнение в США. Для показа были куплены мобильный телефон и несколько SIM-карт в Панаме, выбраны типично русские имя и фамилия, зарегистрирован аккаунт на Yandex, с помощью программы NordVPN указан IP-адрес в Санкт-Петербурге, далее была проведена регистрация в AdWords, при указании определенной юридической фирмы сделана оплата рекламы и в Интернет был заброшен политический контент, который можно квалифицировать как провокационный.
Все это делали граждане США из компании Google, о чем они и рассказали. То же самое могут делать сотрудники АНБ, ЦРУ, любители-русофобы, знакомые с хакерскими методиками. Чувство здравого смысла подсказывает, что для создания видимости вмешательства России все так и делалось.
Другой пример – создание фейковой пропаганды. Эту технологию американские военные с помощью подрядчиков отработали в начале 2000-х годов в Ираке.
Британская неправительственная организация "Бюро журналистских расследований" утверждает, что Пентагон заплатил более 500 млн. долл. британской пиар-компании Bell Pottinger за создание поддельных видеосюжетов, на которых запечатлены различные действия боевиков и террористов. Группа сотрудников этой компании была размещена вместе с американскими военными в лагере Victory в Багдаде сразу после начала оккупации в 2003 г. Бывший председатель компании лорд Тим Белл подтвердил журналистам, что компания действительно выполняла тайный подряд для американцев, детали которого не разглашаются по причине секретности. Ранее Bell Pottinger занималась продвижением имиджа Маргарет Тэтчер и помогла Консервативной партии выиграть на трех выборах. Со стороны США этот проект курировал генерал Дэвид Петреус. Если же он не мог принять решение по какому-либо вопросу, согласование проводилось в более высоких инстанциях в Вашингтоне.
Самым скандальным эпизодом в этой истории было создание пропагандистских роликов, сделанных британской компанией от лица террористической группировки "Аль-Каида" [запрещена в России]. Когда материал был готов и оцифрован в нужном формате, ролики были записаны на диски и переданы морским пехотинцам, которые во время облав и рейдов подбрасывали диски в дома иракцев. На дисках был записан код, по которому можно было отслеживать местоположение компьютера, на котором ставили этот диск. Впоследствии обнаружилось, что поддельные клипы смотрели не только в Ираке, но также в Иране, Сирии и даже в Соединенных Штатах!
А поскольку за последние годы технологии значительно шагнули вперед, теперь заговорили о возможности применения искусственного интеллекта в подобных проектах – будь то политическая манипуляция на выборах или дезинформационные вбросы. Несколько таких скандалов уже произошли. Один из них – использование данных из профилей Facebook, которые компания Cambridge Analytica использовала для таргетирования избирателей во время выборов президента США.
"Вашингтон пост" отмечает: "В дальнейшем будут выбирать не только проблемы и лозунги, подходящие для потенциального кандидата, но и самого кандидата... Приложения по базам данных с информацией по образованию, родословной и профессиональным навыкам охватывают конкретные сегменты электората… А в будущем направления кампании среди различных блоков избирателей можно будет сопоставить с родословными, генетическими и медицинскими данными, чтобы… выявить методы подбора и оценки аудитории в пользу или против определенной повестки дня".
Искусственный интеллект может также использоваться как бот, заменяя человека и даже имитируя беседу. Такие алгоритмы, как Quill, Wordsmith и Heliograf, используются для преобразования таблиц данных в текстовый документ и даже для написания новостей на различную тематику.
По мнению американских военных, инструменты информационных операций на основе искусственного интеллекта могут сопереживать аудитории, что-то высказывать по мере необходимости, изменять восприятие. Будущие информационные системы смогут индивидуально контролировать и влиять на десятки тысяч людей одновременно.
Летом 2018 года агентство DARPA (Управление перспективных исследовательских проектов Министерства обороны США) запустило проект, который пытается определить, можно ли будет в ближайшее время отличить поддельное видео от настоящего. При этом подделка 1) выглядит как настоящий продукт; 2) создана при помощи искусственного интеллекта. Анализ таких файлов также должен проводиться при помощи искусственного интеллекта.
Видео традиционно оказывает большее влияние на аудиторию, оно выглядит более убедительно, чем текст, его труднее подделать, чем фото. Современные технологии легко справляются с этим. В апреле 2018 года было обнародовано видео, получившее название ObamaPeele, – согласно именам исполнителей. На видео Барак Обама произносит довольно странную речь; в действительности текст зачитывал актер, который не показан. А специальная программа обработала игру актера так, что мимика Обамы полностью соответствует тексту. В Вашингтонском университете специалисты по компьютерным технологиям проделали подобный эксперимент с одним из выступлений Барака Обамы 2017 года и выложили результаты в открытый доступ с подробным описанием того, как это работает.
В проекте DARPA применяются так называемые глубокие фейки – видеоизображения, где лицо одного человека "пришивается" к телу другого человека. Такая технология уже использовалась для создания нескольких фальсифицированных порно со знаменитостями. Метод может быть также применен для создания клипа политика, говорящего или делающего что-то возмутительное и неприемлемое.
Специалисты DARPA особенно обеспокоены новой технологией искусственного интеллекта, которая может создавать фейки, практически не определяемые автоматическим методом. Так называемые генеративные состязательные сети, или GAN (generative adversarial networks) позволяют создавать потрясающе реалистичные мнимые образы. Обеспокоенность DARPA связана с возможностью применения этой технологии кем-то еще. Потеряв монополию в создании, верификации и распространении фейков, США сами столкнутся с проблемами, которые создали другим.
И пока военные ломают голову, как обеспечить за собой первенство в специфической гонке информационных вооружений, их гражданские коллеги уже прозвали это направление научно-прикладных разработок информационным апокалипсисом и дезинформацией на стероидах.


Поиск  
Версия для печати
Обсуждение статьи

Еще по теме
Рабочий график главы государства 31.10.2018
Указ Президента Республики Казахстан от 22 октября 2018 года №777 31.10.2018
Н.Нигматулин выступил на осенней сессии Парламентской Ассамблеи ОДКБ в Москве 31.10.2018
Реализация программы развития занятости и предпринимательства позволила трудоустроить 458 тыс. граждан 31.10.2018
Постановление Правительства Республики Казахстан от 19 октября 2018 года №661 31.10.2018
Постановление Правительства Республики Казахстан от 26 октября 2018 года №688 31.10.2018
Постановление Правительства Республики Казахстан от 26 октября 2018 года №689 31.10.2018
В Сенате обсудили вопросы дошкольного воспитания и обучения 31.10.2018
В МВД состоялась встреча с представителями Посольства США 31.10.2018
Глава Минкультуры прокомментировал дело о коррупции сотрудников 31.10.2018

Новости ЦентрАзии
Дни рождения
в Казахстане:
19.04.24 Пятница
76. ДЖАЛМАГАМБЕТОВА Светлана
75. ЖУКЕЕВ Тулеген
74. КАН Виктор
72. ТУМАРБЕКОВ Мурат
71. ЛЕСКЕВИЧ Иван
70. НЕСИПБАЕВ Рахимбек
67. АУБАКИРОВА Жания
67. БЕКИШЕВ Хамит
66. БАЙТЕЛЕСОВ Жигиткер
66. КАСЫМБЕКОВ Бактыбай
58. КИЯСБАЕВА Патима
55. МАНАСБАЕВА Бахыт
53. ШАТЕКОВ Асет
52. ТУРЛЫХАНОВА Гульмира
50. ГЛУХИХ Дмитрий
...>>>
20.04.24 Суббота
82. НАБИЕВ Жаугашты
76. МУЖЧИЛЬ Татьяна
74. КЕНЖЕТАЕВ Есенгельды
72. ДАРИНОВ Ауезхан
65. КИРГИЗАЛИЕВ Нуралы
65. СУЛЕЙМЕН Усен
63. УМИРСЕИТОВ Бахыт
62. БЕКТАЕВ Али
62. КУРМАНАЛИЕВ Каримбек
59. САТИМБЕКОВ Канат
58. ДУЗЕЛЬБАЕВ Ерлан
55. АШИМБАЕВ Самат
55. ТУРТАЕВ Алмат
54. КУРУМБАЕВ Руслан
52. ШАБЕНОВ Канат
...>>>
21.04.24 Воскресенье
79. РАИСОВ Толеген
76. ПЛЯЦУК Владимир
75. ХАЛИЛА Абдилак
71. АЙМАГАМБЕТОВ Сабит
71. ТОБАЯКОВ Бахытжан
67. БАДАНОВ Мейрам
67. ЖАРКЕНОВ Аскар
67. ШАЛАБАЕВ Сейтжан
65. БАЛАБАТЫРОВ Нурлан
62. МУКАТОВ Кажгалей
61. ТОТАЕВ Бауржан
61. ЯБРОВ Владимир
60. АБДРАХМАНОВ Кайрат
58. АКУЛОВ Григорий
51. ТУРТКАРИН Алимжан
...>>>


Каталог сайтов
Казахстана:
Ак Орда
Казахтелеком
Казинформ
Казкоммерцбанк
КазМунайГаз
Кто есть кто в Казахстане
Самрук-Казына
Tengrinews
ЦентрАзия

в каталог >>>





Copyright © Nomad
Хостинг beget
Top.Mail.Ru
zero.kz