sestdiena, 2019. gada 7. septembris

Обособление правды от лжи: современные возможности



                                                                                  Vincit omnia   veritas 





Обособление правды от лжи: современные   возможности

                 В нынешнем международном контексте особую важность приобретают усилия ответственных государственных органов по пресечению токсичной пропаганды, поиску адекватных средств и эффективных методов борьбы с ней.
       К сожалению, до сих пор продолжает применяться привичный бюрократически-традиционный подход, когда средства государственного бюджета тратятся без должной отдачи.
          В современных условиях следует использовать более эффективные методы.  Например, автоматизированную проверку фактов и утверждений, разработанную Центром комплексных исследований сетей и систем при Университете Индианы (см.  Computational Fact Checking From Knowledge Networks:https://journals.plos.org/plosone/article?id=10.1371/journal.pone.0128193 ).
          Такой инновационный подход к фактчекингу материалов, публикуемых в средствах массовой информации, и раскрытию дезинформации является перспективным, объективным и может служить эффективным инструментом формирования общественного мнения. Необходимо лишь добиться понимания ответственных чиновников!
          Адекватная государственная поддержка также помогла бы заинтересовать IT специалистов и привлечь новаторских  предпринимателей к сотрудничеству по адаптации компьютерной методологии, предлагаемой учеными Университета Индианы, для фактчекинга, анализа и определения достоверности публикаций СМИ. Это позволит оперативно выявлять случаи злонамеренного, ложного распространения информации. Тем самым создаст необходимые условия и позволять всем заинтересованным сторонам получить объективное представление, т.е., исключить субъективное или неверное толкование публикаций.
          Таким образом, посредством компьютеризированой обработки информации, стало бы возможным представить независимую оценку правдивости фактов и заявлений, распространяемых в публичном пространстве. Создавая серьезные барьеры для культивирования дезинформации и троллинга.

          Рекомендуемый научно обоснованный и максимально объективный подход тесно связан с идеей паспорта социальной идентичности, предложенной автором (см. Статью http://ceihners.blogspot.com/ « О целевой функции паспорта социальной идентичности »).

Интервью создателя мобильного ютьюба Андрея Дороничева После начала войны он решил бороться с дезинформацией с помощью нейросетей

23 апреля 2023

 За последний год прогресс в области искусственного интеллекта невероятно ускорился. Теперь нейросетевые сервисы используют и для написания песен, и для создания видео (в том числе самых безумных), и, конечно же, для публикации фейковых новостей. Одним из тех, кто решил бороться с дезинформацией в этой сфере, стал бывший топ-менеджер Google, создатель мобильного ютьюба Андрей Дороничев. Его компания Optic начала с выявления NFT-подделок, а в апреле запустила сервис — распознаватель изображений, созданных нейросетями. Сейчас команда Дороничева разрабатывает сервис с рабочим названием Bias-o-meter (еще один вариант — «Пропагандометр»), который дает «оценку предвзятости» публикациям в СМИ. «Медуза» поговорила с предпринимателем о перспективах развития нейросетей, их роли в информационной войне и о том, как человечество должно реагировать на эту угрозу. …

— Как ты сам изменился за 2022 год?

— Конечно, я изменился. Этот год перевернул жизнь у всех — вне зависимости от того, кто и как был вовлечен [в войну и ее последствия]. Я просто потерял возможность быть нейтральным. Война — это тот момент, когда ты больше не можешь оставаться «сидящим на заборе». Ты должен выбрать, в какую сторону спрыгнуть.

Моя позиция понятна: Россия совершает акт военной агрессии, бесконечное количество преступлений на территории другой страны, ведет захватническую войну. Поэтому, несмотря на то что я все еще гражданин России, я выступаю против текущей политики, против любой военной агрессии в XXI веке.

Это крайне сложно — как многие ваши читатели знают — выступать против [государства], когда твои ценности и отношение к жизни полностью расходятся с политикой страны, в которой ты родился. В общем, я всегда относился к России позитивно-нейтрально, у меня было понимание, что страна и политика Путина — это разные вещи. Но сейчас не время нюансов. Сейчас не время, когда можно разделять хороших и плохих русских. Сейчас украинцев у них дома убивают каждый день. Я прекрасно понимаю, что я сам в глазах миллионов украинцев являюсь частью вот этой агрессивной силы, хотя вообще никакого отношения к ней не имею….

— Какую проблему решает Optic? Почему вы начали со стартапа по борьбе с поддельными NFT, хотя вроде бы интерес к ним упал вместе с крахом рынка?

— Optic началась с простого тезиса: цифровая информация стала очень важной в нашей жизни. Важной по-разному: потому что она может начать войну, потому что она стоит денег, потому что она важна лично для вас. Цифровые файлы, записанные в битах и байтах, стали играть большую роль в нашей жизни.

Поэтому достоверность и безопасность этих данных с годами возрастает в цене. Цифровая информация настолько важна для нас, что мы готовы платить за jpeg-изображение сотни тысяч долларов. Кто-то готов пойти на улицы и убить соседей из-за текстов, опубликованных в фейсбуке. Раз уж эта информация так важна, то имеет смысл инвестировать в то, чтобы доказывать [ее достоверность] и отлавливать некачественную, нечестную, достоверную….

— Главный следующий продукт — AI or Not, который распознает изображения, созданные искусственным интеллектом?

— Да, только что запустили.

— Он сможет распознать как фейк того же Трампа в наручниках или папу римского в пуховике? 

— Да и да. Нужно попробовать, но да, конечно. 

— Ты указал, что AI or Not предназначен в том числе для журналистов. Как он должен помочь бороться с дезинформацией и пропагандой?

— Генеративный искусственный интеллект — это очень круто. Так же круто, как камера в телефоне. Раньше качественную фотографию мог создать только фотограф с большим объективом, и их были единицы. А теперь любой владелец айфона [может это сделать]. Раньше создать фотореалистичную иллюстрацию мог только редкий профессионал, а сейчас любой человек заходит в Midjourney и создает что угодно. Очень классно. Когда мы создаем больше инструментов для креативности, мы все в результате выигрываем. Демократизация инструментов создания контента — это хорошо.

Но каждый раз, когда появляются такие инструменты, появляются и bad actors. Появляется цветной принтер — люди начинают печатать контрафактные деньги. Появляется технология deepfake — люди пытаются манипулировать общественным мнением. Например, в первые дни войны создавая фейковые видео Зеленского, где он [якобы] сдается.

С генеративными сетями такой риск значительно возрастает. Потому что такая распространенность быстро дает возможность огромному количеству злоумышленников экспериментировать и находить способы показать, почему наше общество не готово к той или иной технологии.

Трамп в наручниках — прекрасный пример. Чтобы появился целый новый нарратив, который очень быстро распространится и повлияет на широкие массы, достаточно создать некий фейковый ассет по очень нагруженной политической теме. И будет неважно, правдива картинка или нет, потому что это уже даст эффект. Страшно представить, что будет, когда начнут генерировать фейковые доказательства военных преступлений с одной или другой стороны, [устраивать] манипуляции с выборами.

Классно, что у человечества есть инструменты, позволяющие вообразить все, что угодно, но также очень важно, чтобы у нас были надежные инструменты, способные отличать воображаемое от реального. И это то, для чего мы создали Optic и AI or Not. Мы натренировали нейросеть, которая научилась визуально отличать [настоящие фотографии от фейковых]. Злоумышленник может стереть заголовки jpeg-а и все специальные маркеры, которые Midjourney помещает в свои изображения, но Optic все равно поймет, что это картинка — генеративная.

— Я правильно понимаю, что вы обновили AI or Not так, чтобы он распознавал изображения, сгенерированные новой Midjourney?

— Да.

— Насколько успешно у AI or Not сейчас получается выполнять свою задачу? Можно ли как-то его обмануть?

— Всегда есть куда стремиться. Это как вирус и антивирус — вечная гонка вооружений. Постоянно будут появляться новые варианты нейросетей, а мы будем постоянно их догонять.

Прямо сейчас я открыл статистику нашей точности. Самый низкий показатель — 97% для [изображений, сгенерированных с помощью] Stable Diffusion. Самый высокий показатель, 99% — для Midjourney. Понятно, что сейчас выйдет что-нибудь новое и нам потребуется время, чтобы собрать данные и потренироваться.

— Следующий ваш проект — это «Пропагандометр». Наверняка он связан с потоком дезинформации во время войны. Зачем создали такой проект?

— Во-первых, с войной он не связан. Во-вторых, он родился на хакатоне полторы-две недели назад, когда мы с командой собрались и начали питчить друг другу идеи. Точнее, один из инженеров предложил [идею сервиса, который проводит] фактчекинг на основе искусственного интеллекта, что крайне сложно. Я предложил другое. Всегда можно понять, пытается ли автор продать тебе что-то своим текстом или нет, просто смотря на язык. Можно проанализировать текст и сказать, что в нем приведены лишь аргументы одной стороны или используются манипулятивные слова, которыми тебя явно пытаются в чем-то убедить.

На самом деле любые тексты пытаются тебя в чем-то убедить — это нормально. Надо понимать, что bias — это необязательно плохо или хорошо, но важно знать о его наличии. [Это поможет в том, чтобы] отличать текст, который тебе что-то продает, от текста, в котором факты изложены максимально нейтрально.

На самом деле «Пропагандометр» — это шуточное название, которое прижилось благодаря легкой руке «Медузы». Задача Bias-o-meter это его изначальное название — приучить людей, читающих СМИ, задавать себе вопрос: «А в какую сторону меня склоняет этот текст»? Даже если ты напишешь самую позитивную вещь, например, про здоровый образ жизни — надо хорошо питаться и долго жить — Bias-o-meter, скорее всего, покажет высокий уровень biasʼa, указав, что текст подталкивает тебя к определенной точке зрения.

— Как работает «Пропагандометр»? Есть ли слова-триггеры?

— Он использует движок и всю мощь GPT, то есть анализирует текст на предмет biasʼa, что включает в себя всякие триггерные слова, разносторонность аргументов и другие факторы, которые мы пока разрабатываем. В итоге Bias-o-meter дает оценку [от одного до десяти, где десять — максимально предвзятый текст] и объяснение.

Иногда получается курьезно. Ты берешь текст «Медузы», в котором [рассказывается как] Путин что-то сказал и в котором мало оценки «Медузы», но много слов [пресс-секретаря президента РФ Дмитрия] Пескова от лица Путина. Если прочитать слова Пескова [без дополнительного контекста и альтернативной точки зрения], то они [будут выглядеть] суперпропагандистскими, поэтому и Bias-o-meter скажет, что видит очень предвзятый текст. Я понимаю, что [журналист] имеет в виду, [когда пишет новость на основе слов Пескова], но такие курьезы происходят. В таком случае надо читать объяснения [сервиса, которые демонстрируются вместе с оценкой текста].

На самом деле оценка не очень важна. Bias-o-meter же не в суде ее презентует. Самое важное, чего добиваешься при помощи этого инструмента, — это то, что ты задаешь себе вопрос о нейтральности и привыкаешь критически оценивать тексты.

КАК УСТРОЕН BIAS-O-METER

— Многие, на кого пропаганда нацелена, вряд ли воспользуются Bias-o-meter и, наверное, даже не почувствуют в нем нужды. Ты думал о том, что эффективность такого сервиса может быть не очень велика в этом случае?

— Я не думаю о Bias-o-meter как о способе решения мировой проблемы. Это прикольный прототип, который помогает увидеть, на что способны современные нейросети на фоне поляризации мира.

Что делает LLM-ка типа GPT? Она читает огромное количество текстов (по слухам, GPT прочитала треть всего интернета), а потом занимается проблемой компрессии. То есть создает статистическую модель: что человечество сказало на какую-то тему, что наиболее вероятно следует за определенным вопросом, какими должны быть следующие слова [в диалоге с пользователем]. То есть она генерирует не смыслы, а текст, похожий на смыслы.

Другие словами, LLM — это усреднитель человечества. Это не очень хороший инструмент для креативности, потому что гениальность — это вайб, а она (языковая модель, — прим. «Медузы») тебе генерит все время «среднесть».

Но именно для деполяризации общества искусственный интеллект может быть очень полезен, потому что он всегда создает центральную, среднюю позицию, на которую можно ориентироваться вне зависимости от того, в какую сторону ты [политически] отклонен: вправо или влево. Искусственный интеллект может создать привычку для нас, сидящих в эхо-камерах в фейсбуке или «Одноклассниках»: у нас будет голос «среднего» ИИ, который скажет: «Классно, что вы тут дискутируете, но помните, что у вас тут левацкий или правацкий чатик, и вообще-то не весь мир такой, как вы тут обсуждаете». Не знаю, как это должно быть устроено, но вот Bias-o-meter — это одна из ранних ласточек, примеров того, что такое возможно….

— Людям в индустрии ИИ, наверное, уже надоело отвечать на вопросы про «восстание терминаторов». Что стоит на самом деле ожидать от бума нейросетей и искусственного интеллекта?

— Восстание терминаторов на самом деле не исключено. За 25 лет в индустрии я никогда не видел чего-то похожего на то, что происходит сейчас, этой степени изменений и их скорости. Это больше, быстрее и значительнее, чем все, что мы до сих пор видели в компьютерных технологиях, начиная от распространения персональных компьютеров, интернета, айфонов и заканчивая социальными сетями.

Все эти бумы, которые сильнейшим образом изменили нашу жизнь, — вспомни мир до айфона и сейчас, — на мой взгляд, ерунда по сравнению с тем, как все теперь изменится из-за бума генеративных нейросетей. Изменения, которые нас ждут… Мы еще даже не поняли, до какой степени все будет меняться. Поэтому люди, которые относятся к этому с опасением, правильно делают. Наше общество во многом не готово к тому масштабу изменений, который грядет. И опасность, скорее всего, исходит не от терминаторов, а от способностей человечества адаптироваться к технологическим изменениям.

Когда придумали паровой двигатель и электричество, началась индустриализация, общество ожидали огромные потрясения. Когда огромное количество работников осталось без работы, потому что они были заменены машинами, случились революции. Сейчас нас ждут изменения такого же уровня.

— Что мы должны сделать в плане разработки дальнейших инструментов на основе искусственного интеллекта, чтобы совсем страшных ситуаций не произошло? Поменять правила разработки? Сделать упор на этику в ИИ? Повысить прозрачность?

— Очень важное слово, которое повторяется в индустрии — alignment. Как человечество, мы должны «заалайниться» по поводу того, какие правила — окей, а что — не окей. И [мы должны] применять эти правила при разработке каждого искусственного интеллекта.

В частности, моя компания Optic предпринимает попытки участвовать в этой дискуссии, потому что остановить, замедлить, перестать исследовать [искусственный интеллект] — это бессмысленно, этого не случится. Джинн выпущен из бутылки, и теперь мы [Optic] будем ускорять прогресс по улучшению этих нейросетей.

То, что мы обязаны сделать — это очень быстро адаптироваться. Во-первых, адаптировать наши социальные институты, обучение, бизнес-правила. А во-вторых, адаптироваться как ресерчеры [исследователи] и технологи. Другими словами, быстро анализировать новые риски и учитывать их при разработке.

Но все, кто сейчас участвуют в разработке ИИ-продуктов, должны задавать себе вопросы: А как это может сработать неправильно? Что будет плохим исходом того, что мы делаем, и как мы его можем предупредить и избежать на этапе разработки?

— Тот же Bias-o-meter работает на основе GPT. А как ты используешь ChatGPT в своей жизни?

— Очень много как использую. Он помогает мне писать имэйлы, помогает писать юридические документы. Вот недавно мне надо было сделать оффер сотруднику. Вместо того, чтобы обращаться к юристам, я обратился к ChatGPT.

То есть ChatGPT уже плотно вошел в мою жизнь — и жизнь моей команды. Более того, часть кода первой версии Bias-o-meter была написана [с помощью] ChatGPT. То есть во время хакатона я сам написал первую версию на базе того кода, который сгенерировал ChatGPT. Я бы писал расширение для Chrome день, а с ним получилось за час. Это [ChatGPT] штуковина, которая обязательно должна быть в инструментарии каждого человека.

https://meduza.io/feature/2023/04/23/vosstanie-terminatorov-na-samom-dele-ne-isklyucheno

 Google добавил фактчек в новостной агрегатор и поисковик


 7 апреля 2017
В поисковике и новостном агрегаторе Google будут выдаваться результаты с пометкой fact check — статьи с проверкой фактов, связанных с запросом. Об этом сообщается в официальном блоге компании.
Фактчек появился в новостном агрегаторе Google в октябре и был доступен поначалу лишь в США и Великобритании. Теперь функция будет доступна во всех странах и при поиске на всех языках, заявили в компании.
Пометку fact check получат статьи от изданий, авторизованных Google. Для этого издания должны использовать специальную разметку ClaimReview, разработанную schema.org, или виджет Share the Facts; при этом они должны быть «алгоритмически определены как авторитетное издание», сказано в сообщении.
Статьи будут появляться в выдаче не для всех запросов и новостных сюжетов. В Google отмечают, что иногда позиции фактчекеров могут различаться.
«И хотя [в выдаче] могут оказаться представлены отличающиеся выводы, мы считаем, что это поможет людям понять, насколько бесспорно то или иное утверждение, и понять, в чем источники соглашаются друг с другом», — заявили в компании.
Тема распространения фальшивых новостей начала широко обсуждаться, в частности, в связи с утверждениями, что распространение фейковых новостей в фейсбуке способствовало победе Дональда Трампа на выборах президента США. Facebook и Google запустили проекты по борьбе с фейковыми новостями и их возможным влиянием на выборы в разных странах.

Читайте Pravda: Илон Маск займется фейками
Зачем Илон Маск создает сервис по борьбе с фейковыми новостями
Бизнесмен Илон Маск решил разобраться с фейковыми новостями — он задумал специальный сервис под названием Pravda, который будет оценивать достоверность каждой публикации онлайн. Предпринимателя уже обвинили в том, что он разделяет идеи Дональда Трампа, но Маск определенно не собирается сдавать назад — судя по всему, он преследует вполне определенные цели.
Неугомонный Илон Маск открывает один бизнес за другим — он занимается космическими ракетами, электроавтомобилями, искусственным интеллектом и даже огнеметами на случай зомби-апокалипсиса.
Теперь бизнесмен и инноватор решил взяться за другую популярную в современном мире тему — fake news, или недостоверные новости. В своем твиттере Маск объявил о намерении создать сервис по оценке достоверности различных публикаций, который будет называться Pravda.
«Хочу создать сайт, на котором люди оценивали бы достоверность каждой статьи и могли отслеживать рейтинг правдивости каждого журналиста, редактора и публикации. Думаю, назову его Pravda...», — написал предприниматель в своем аккаунте.
…. Попытки разграничить недостоверную информацию от проверенной активно предпринимает социальная сеть Facebook, которой сильно досталось от американских властей за неспособность контролировать ботов на своей платформе. В ноябре прошлого года Facebook пообещала помечать материалы авторитетных СМИ специальной иконкой, символизирующей то, что изданию можно доверять.
Кроме того, в социальной сети пользователи могут помечать публикации, которые им покажутся подозрительными, после чего их проверкой займется отдельная команда модераторов, а также сторонние организации, специализирующиеся на фактчекинге.

22 августа 2018  Анатолий Глянцев
Искусственный интеллект научился распознавать фейковые новости лучше человека

Учёные создали нейронную сеть, которая отличает фейковые новости от достоверных лучше, чем человек-эксперт. Создатели алгоритма надеются, что их детище поможет защитить пользователей Интернета от недостоверной информации, а порой и откровенной дезинформации. Достижение описано в научной статье, препринт которой опубликован на сайте arXiv.org группой во главе с Радой Михалча (Rada Mihalcea) из Мичиганского университета.
Не секрет, что по просторам интернета часто гуляют фальшивые новости. Некоторые из них создаются с целью сформировать определённое общественное мнение, например, на политические темы. Задача других в том, чтобы побудить пользователя перейти по ссылке и просмотреть рекламу. В том и другом случае потребители информации вместо достоверных сведений получают порцию лжи.
Задача отсеивать фейковые материалы может быть возложена на человека-редактора. Однако поток информации слишком велик, чтобы медленный человеческий мозг успевал его обрабатывать. Во-вторых, проверка на достоверность обычно происходит путём сравнения с другими источниками. Но если новость очень свежая, то "контрольные источники" могут и не успеть среагировать на неё. В итоге правдивость публикации проверяется в лучшем случае постфактум, когда её уже прочитали тысячи человек.
Михалча и её коллеги решили исправить ситуацию, создав автоматический фильтр фейковых новостей. Однако при сборе материала они столкнулись с рядом трудностей. Ложные сообщения быстро появляются и столь же быстро исчезают, так что в короткие сроки набрать обширный материал не так-то просто.
Кроме того, особенности фейковых материалов довольно сильно разнятся в зависимости от жанра. Скажем, сообщение, высмеивающее политического деятеля за некую выдуманную выходку, может быть совсем не похоже на статью, призванную напугать читателя столкновением с планетой Нибиру.
В конце концов исследователи усадили команду добровольцев писать поддельные новости специально для обучения искусственного интеллекта. Эти труженики клавиатуры брали за основу новостные статьи из достоверных источников, и, сохраняя общую структуру и стилистику текста, меняли содержание так, что получалась утка. Как утверждается в пресс-релизе, именно так и работают реальные "фабрики вранья". Так поступать проще и выгоднее, чем продуцировать ложные сюжеты, что называется, с нуля.
В итоге команда получила набор из 500 поддельных и подлинных коротких новостных материалов и приступила к обучению нейронной сети. Система анализировала такие факторы, как выбор слов, грамматическая структура предложения, сложность фраз и пунктуация.
Натаскав электронного эксперта, авторы проверили его навыки. Нейронная сеть анализировала поток новостей, не входивших в обучающую выборку, и выносила вердикт по поводу их достоверности. Тем же самым занимались соревнующиеся с ней эксперты. В итоге искусственный интеллект оказался прав в 76% случаев, а человек только в 70%.
В публикации авторов подробно описаны детали набора данных и алгоритма обучения нейронной сети. Учёные рассчитывают, что эта информация поможет другим командам в создании аналогичных систем. Остаётся надеяться, что эти же сведения не будут использованы "фабриками фейков" для того, чтобы научиться писать более правдоподобно.
В данный момент группа работает над совершенствованием своего детища. Исследователи собираются научить компьютерный разум учитывать также ссылки, использованные в материале, и комментарии, оставленные пользователями.
Напомним, что "Вести.Наука" (nauka.vesti.ru) ранее писали о системах искусственного интеллекта, которые сочиняют музыку и песни, а также другие произведенияпредсказывают результаты дебатовболтают по телефону, лучше людей строят отношения и читают по губам, а ещё прогнозируют будущее.

https://www.vesti.ru/doc.html?id=3051979&cid=2161

04:22, 5 февраля 2020
Разработан сервис для распознавания фотошопа на снимках

Дочерняя компания Alphabet Inс. (владелец поисковой системы Google) Jigsaw разработала бесплатный сервис Assembler, с помощью которого можно отличить реальные фотографии от поддельных и обнаружить следы редактирования фотографий. Об этом сообщила газета The New York Times.
В описании проекта сказано, что сервис направлен на борьбу с дезинформацией. Он состоит из семи «детекторов», разработанных на основе самообучаемых нейросетей, каждый из которых служит для распознавания определенного типа техники «фотоманипуляции». Проект разработан учеными из калифорнийского университета Беркли, университета Мэриленда, Неаполитанского университета (Италия) и Национального института стандартов и технологий США.
Менеджер по продукции Jigsaw Сантьяго Андриго пояснил изданию, что сервис будет особенно полезным для журналистов крупных новостных агентств, поскольку его можно использовать для проверки «вирусных» новостей и изображений с фотошопом. Компания также анонсировала разработку интерактивной платформы, где будут собраны крупные кампании по дезинформации со всего мира…:

Никаких шуток: Twitter промаркирует фейки

Twitter начнет маркировать фейковые фото и видео

Twitter начнет маркировать фото- и видеоконтент, который вызывает подозрения в своей подлинности — об этом говорится в официальном блоге компании. Согласно новым правилам, которые вступят в силу уже в марте, публикации, содержащие в себе фейковые медиафайлы, будут отмечены специальной меткой, чтобы не вводить пользователей в заблуждение.
Компания Twitter объявила о своих планах маркировать медиконтент, который платформа посчитает «синтетическим или сфабрикованным». Об этом сообщается в официальном блоге социальной сети.
По словам администрации Twitter, к сфабрикованным фотографиям или видео относится тот контент, который был «существенно изменен или создан в такой манере, которая искажает изначальный посыл, или заставляет верить в события, которые на самом деле никогда не случались».
Из этой немного запутанной формулировки становится понятно, что Twitter будет бороться с дипфейками и отредактированными снимками, которые пользователи рунета часто называют «фотошопом».
Согласно новым правилам, которые вступят в силу с 5 марта 2020 года, Twitter запрещает публикацию фейкового медиаконтента, который «может причинить вред». Такие посты будут промаркированы специальной меткой, которая проинформирует людей о том, что они смотрят на сфабрикованное фото или видео.
Чтобы определить степень вероятного вреда от таких публикаций, Twitter будет следовать трем установкам. Прежде всего, будет определяться аутентичность контента. Сотрудники компании будут проверять, было ли фото и видео изменено, не появились ли в нем дополнительные элементы, отсутствующие в оригинале.
Также будет оцениваться посыл, с которым это фото или видео было размещено на платформе — пытался ли автор таким образом обмануть своих подписчиков, пытаясь заставить их поверить в несуществующее событие. Проверяться будет и текст твита.
Далее будет проведен анализ того, насколько эта фейковая публикация может быть опасна для общества — не вызовет ли она угрозу для отдельного индивида или группы людей, не создает ли она риск массовых беспорядков или проявлений насилия. 
Если опасения Twitter подтверждаются и на платформе был обнаружен фейк, пост получит специальную отметку, в которой будет содержаться предупреждение для всех пользователей, которые захотят ретвитнуть или лайкнуть его.
Кроме того, этот твит получит низкий приоритет во всех лентах и будет реже появляться в рекомендациях. Компания также планирует предоставлять пользователям дополнительные пояснения по ситуации, которую искажает обнаруженный фейк.
В Twitter отметили, что такое решение станет вызовом для компании, поэтому на первом этапе модераторы будут совершать ошибки. «Мы ценим ваше терпение, но мы хотим сделать все правильно», — говорится в официальном блоге.
Этот шаг со стороны Twitter является частью комплекса мер, направленных на снижение количества фейковых новостей, которые предпринимают все крупные социальные сети. В какой-то момент фейков на онлайн-платформах стало так много, что старые алгоритмы перестали справляться, что и продиктовало необходимость нового подхода к борьбе с сфабрикованным контентом.
Особенно остро эта проблема встает, когда в мире случается событие глобального масштаба, вызывающее волнение у людей — многие «тролли» пытаются посеять панику, публикуя недостоверную информацию…:

https://www.gazeta.ru/tech/2020/02/05/12944791/fake_twi.shtml

NYT: Twitter указал на фейки в сообщениях Трампа

Под некоторыми постами президента США Дональда Трампа в Twitter появилась автоматическая маркировка, указывающая на недостоверные сведения в сообщениях президента. В ответ американский лидер обвинил социальную сеть во вмешательстве в президентские выборы и подавлении свободы слова.



Сайт Conservative 101 восхищается Трампом. Сайт Liberal Society — возмущается. Их делают одни и те же люди
Meduza
 1 марта 2017
Журналист Buzzfeed обнаружил, что два сайта с американскими политическими новостям, один из которых выступает с консервативных позиций, а другой — с либеральных, публикуют почти идентичные тексты, а владеют ими одни и те же люди. Meduza кратко рассказывает очередную историю о том, как делается бизнес на фальшивых и манипулятивных новостях из американской политической жизни.
Сайт Conservative 101 публикует новости о политической жизни США, рассчитанные на консервативную аудиторию (типичный заголовок: «Обама обнародовал страшную вещь, которую он хочет сделать с нами, — и это только начало»); его материалы распространяются через страницу на фейсбуке, у которой более двух миллионов подписчиков.
Сайт Liberal Society публикует новости о политической жизни США, рассчитанные на либеральную аудиторию (типичный заголовок: «Обама рассказал о своей новой работе… БЕРЕГИСЬ, ТРАМП!»); его материалы распространяются в группе через страницу на фейсбуке, у которой более двух миллионов подписчиков.
Контент сайтов местами совпадает почти дословно. Так, 22 февраля оба издания опубликовали новости о том, что советницу Трампа Келлиэнн Конуэй могут отстранить от выступлений в телеэфире. Идеологические акценты четко расставлены в заголовках (Conservative 101: «Белый дом выгнал Келлиэнн Конуэй, приготовьтесь злиться»; Liberal Society: «Белый дом НАКОНЕЦ-ТО прогнал Келлиэнн Конуэй, вы довольны?») — однако при ближайшем рассмотрении тексты материалов оказываются практически идентичными.
Например, первое предложение материала консервативного сайта сообщает, что Конуэй — «любимый директор по коммуникациям Дональда Трампа». Текст на Liberal Society начинается точно так же, но вместо эпитета «любимый» там фигурирует «ужасный». В оба текста включены одни и те же твиты самой Конуэй и ведущей канала MSNBC; оба цитируют одни и те же фрагменты из материала CNN, впервые сообщившего о возможном отстранении Конуэй. Оба в одних и тех же выражениях описывают причины, по которым советницу Трампа больше не хотят видеть в телеэфире, — однако консервативный сайт добавляет перед словом «телеканалы» два определения: «мэйнстримные» и «либеральные». Оба текста заканчиваются риторическими вопросами — только если Conservative 101 интересуется у читателей, будут ли они скучать по Конуэй, то Liberal Society спрашивает, рада ли аудитория ее исчезновению с экранов.
Как удалось выяснить Buzzfeed News, оба сайта принадлежат одному и тому же владельцу — компании American News LLC, зарегистрированной в Майами. Она же владеет еще несколькими изданиями: либеральным Democratic Review, консервативным American News, а также сайтом God Today, публикующим материалы, связанные с религией. У многих из сайтов, принадлежащих American News LLC, один и тот же аккаунт в Google Analytics и Google AdSense (сервисах, позволяющих отслеживать статистику и размещать контекстную рекламу). Они также регулярно публикуют фейковые новости — например, о том, что актер Дэнзел Вашингтон поддержал Дональда Трампа или о том, что певица Майли Сайрус после выборов президента решила уехать из США.
Фейковые истории в основном появляются на American News — самом популярном из сайтов, принадлежащих American News LLC. Как посчитал журналист Buzzfeed, три опубликованных изданием новостных материала, не соответствующих действительности, вместе собрали более двух с половиной миллионов реакций в фейсбуке. Conservative 101 и Liberal Society читают меньше: вышеупомянутая история про Келлиэнн Конуэй собрала около четырех тысяч лайков, шеров и комментариев в фейсбуке в консервативной версии и более сорока тысяч — в либеральной.
Пишут ли все эти материалы одни и те же люди — неясно. На страницах авторов на сайте God Today использованы изображения из видео из базы данных Shutterstock; биографии авторов на разных сайтах, принадлежащих American News LLC, написаны в похожем стиле. Buzzfeed выяснил, что American News LLC возглавляют некие Джон Крэйн и Тайлер Шапиро: они начинали в 2014-м с сайтов для консервативной аудитории, а либерально-ориентированные издания запустили уже в 2016-м. На запрос Buzzfeed о комментарии представители American News не ответили. 17 февраля Джон Крэйн зарегистрировал два новых домена, DevoutAmerican.com и EthicalAmerica.com. По их названиям похоже, что компания собирается запустить еще два издания, ориентированные на религиозных людей, но пока ни один из адресов не работает.
Это не первая история о том, как с помощью фейсбука и провокационных заголовков люди делают бизнес на американских политических новостях. В начале ноября 2016 года, незадолго до дня президентских выборов, тот же журналист Buzzfeed, который установил связь между Liberal Society и Conservative 101, рассказал о сотнях сайтов, размещавших (зачастую ложные) материалы в поддержку Дональда Трампа и против Хиллари Клинтон и продвигавших их через фейсбук, которые были зарегистрированы в одном и том же небольшом городе в Македонии. Выяснилось, что создавали их в основном подростки, чтобы заработать на контекстной рекламе; один из них за четыре месяца, с августа по ноябрь 2016-го, заработал 16 тысяч долларов.
Что случилось?
Количество сайтов, на которых есть новости, постоянно растет — только в системе «Яндекс.Новостей» зарегистрировано больше 6700 источников. Многие из них не заслуживают доверия, но неискушенному читателю иногда бывает сложно понять, можно ли доверять тому или иному изданию или не зарегистрированному как СМИ сайту.
2
Допустим, я зашел на новый для меня сайт из тех же «Яндекс.Новостей». Как его проверить?
Обратите внимание на подачу новости — заголовок и первый абзац. Они должны совпадать по смыслу — например, если в заголовке говорится о чем-то как о факте, а в первом абзаце как всего лишь о предложении что-то сделать, это повод усомниться в достоверности источника. Классический пример: предложение одного из депутатов что-нибудь запретить с заголовком «Госдума запретит работать по выходным». 
Кроме того, обратите внимание на интонацию — хорошие новости написаны неэмоционально, в них нет агрессивной лексики. Затем посмотрите, на что ссылается издание, которое вы читаете. Официальные материалы (законы, пресс-релизы), ссылки на федеральные СМИ («Ведомости», РБК, «Коммерсант») или новостные агентства («Интерфакс», ТАСС) могут служить хорошим ориентиром, а вот ссылка на «анонимный источник» должна насторожить. У малоизвестных сайтов редко бывают заслуживающие доверия анонимные источники (а у федеральных — напротив, бывают очень качественные; к тому же некоторые новости в принципе не могут быть написаны без анонимных источников). Кроме того, если региональное издание, например из Тюмени, ссылается на «источник в правительстве Краснодарского края», это тоже повод усомниться: откуда у тюменского издания источники в Краснодаре? 
Наконец, обратите внимание на то, чья прямая речь приводится в новости. Одно дело, если это участники событий; другое — человек, не имеющий к сути новости никакого отношения. Классический пример: если в новости на общественно-политическую тематику что-то комментирует певец Юрий Лоза, это значит, что вы читаете либо очень плохую новость, либо юмористический сайт. 
3
Если о каком-то событии сообщает только одно СМИ, это повод усомниться в сути новости?
Так бывает, хотя многое зависит от репутации издания. Особенно внимательными будьте с информацией о катастрофах: однажды Life сообщил, что на проспект Мира в Москве упал вертолет. При этом в соцсетях не было ни одной фотографии с места событий — учитывая, что это совсем не безлюдная территория, сообщение выглядело странно. В результате новость опровергли, хотя ее успело перепечатать не одно СМИ.
4
Что еще может служить маркером сомнительной новости?
Однобокая подача. Посмотрите, представлены ли в новости все стороны конфликта. Даже если какая-то сторона не успела высказаться по поводу новости, из хорошей новостной заметки станет ясно, что эта вторая сторона существует: либо новостник сделает попытку добраться до ньюсмейкера и напишет об этом в заметке, либо укажет, что тот на новость пока не отреагировал. 
5
Есть ли сайты, которым не стоит доверять ни при каких обстоятельствах?
Увы, есть. Их можно разделить на несколько категорий. Во-первых, «Агентство интернет-исследований» и «Федеральное агентство новостей» (ФАН). Эти ресурсы связаны с «фабриками троллей» — компаниями, сотрудники которых за деньги продвигают выгодные властям сообщения. Во-вторых, ресурсы, созданные бывшим депутатом Госдумы Константином Рыковым. Главные его издания — «Дни.ру» и «Взгляд.ру» — отличаются однобокой подачей новостей и игнорированием повестки, критической по отношению к власти. То же самое можно сказать о холдинге «Правда.ру» Вадима Горшенина, куда помимо одноименного сайта входят Yoki.Ru и «Политонлайн». Почти все вышеперечисленные сайты (плюс «Ридус», бывшие сотрудники которого не скрывают, что их задача — дискредитировать нелояльных политиков) были замечены в спланированной публикации «вбросов».
Кроме того, нужно быть внимательным к сайтам The Moscow Post, «Век» и «Руспрес», которые неоднократно были замечены в одновременной публикации компромата, впоследствиипризнанного судом не соответствующим действительности. 
6
Сложно все запомнить. Есть какой-то один базовый совет?
Есть. Когда читаете новость в любом издании, всегда сомневайтесь в написанном. Сомнение — лучший способ не быть одураченным. Если вам показалось подозрительным, как новость написана в одном месте, почитайте в другом и третьем; обратите внимание, на что они делают акцент. Загляните в «Яндекс.Новости» и посмотрите, широко ли разошелся сюжет — и пишут ли о нем СМИ, которым вы доверяете. 
Facebook обвинил РФ в "кампании по дезинформации"

07.09.2017 Москва, 6 сентября - "Вести.Экономика". 
Руководство американской соцсети Facebook заявило о том, что на некую рекламную кампанию по распространению "разделяющих взглядов", проводившуюся с якобы зарегистрированных в России аккаунтов за последние два года было потрачено $100 тыс.

Об этом в официальном блоге компании заявил директор по информационной безопасности Facebook Алекс Стамос. По словам Стамоса, бывшего директора по информационной безопасности компании Yahoo!, которую он покинул после скандала с государственным шпионажем США за пользователями сервиса, примерно 470 аккаунтов в Facebook в период с июня 2015 г. по май 2017 г. участвовали в рекламной кампании по распространению точек зрения, которые "обостряли социальные противоречия" по целому ряду вопросов.
Он отметил, что на данный момент эти аккаунты уже удалены, но при этом, они якобы были "связаны друг с другом":
"Наш анализ показывает, что эти аккаунты и страницы были связаны друг с другом и, вероятно, действовали из России".

Среди тем, по которым якобы проводилась рекламная кампания с "разделяющими взглядами", в Facebook назвали: проблемы ЛГБТ-сообщества, расовой принадлежности, иммиграции, а также оборота оружия. В соцсети подчеркнули, что рекламная кампания не затрагивали тему президентских выборов в США, голосования и каких-либо кандидатов.

Директор по информационной безопасности Facebook также заявил о том, что "компания поделилась своими находками" с властями США и "продолжит работать с ними по мере необходимости".
Подробнее: http://www.vestifinance.ru/articles/90615

Не верь глазам своим: IT подрывают веру в СМИ
Что будет, если те видеоматериалы, которые мы смотрим по телевизору, будут регулярно и легко фальсифицироваться? Когда будет практически невозможно отличить реальные видео от подделки без тщательного расследования? 

Будем ли мы по-прежнему верить СМИ? Или мы станем подвергать сомнению любую информацию, которую нам преподносят?

Существуют технологии, позволяющие сделать видео, на котором любой человек будет говорить те слова, какие придут в голову редактору, причем такое видео можно сделать даже со знаменитостяминапример с бывшим президентом США Бараком Обамой.

В прошлом году вышло исследование Матиаса Нисснера из Стэнфордского университета под названием "Face2Face: Real-time Face Capture and Reenactment of RGB Videos", в котором показывалось, насколько просто с помощью замещающего актера в реальном времени, с использованием вполне доступных инструментов, создать иллюзию того, что говорит кто-то другой, например некий известный человек.

Что еще более удивительно: для того чтобы создать "говорящего клона", не нужно иметь сложное оборудование – достаточно обычной веб-камеры и соответствующей программы.

И теперь издание Telegraph сообщает о том, что была создана компьютерная программа, которая может редактировать видео говорящих людей, чтобы создать реалистичное видео, как будто говорит кто-то другой.

Все это вызывает обеспокоенность о том, что подобные ролики получат распространение в интернете.

Вот что говорится в исследовании Стэнфордского университета:

"Мы представляем инновационный подход к реконструкции лица в виде монокулярной последовательности видеокадров.

Видеоисточник – это также монокулярная последовательность кадров, которая снята с помощью обычно веб-камеры.

Наша цель – анимировать выражение лица на целевом видео актером в видеоисточнике и воссоздать его в конечном видео с максимальной реалистичностью.

Мы отслеживаем выражение лица актера в видеоисточнике и в целевом видео
".

Если объяснить то же самое более простым языком, то знаменитые "говорящие головы" могут быть кем угодно и представлять они могут любую знаменитость.

Во время беседы в реальном времени они могут говорить, реагировать на слова, отвечать на вопросы и в целом демонстрировать эмоции, таким образом, обман будет абсолютным и полностью убедительным.

Кроме того, ученые из Вашингтонского университета воссоздали видео бывшего президента США Барака Обамы с использованием программы, которая позволяет накладывать новую звуковую дорожку на видео, где говорящий человек соответствующим образом артикулирует. Получилось реалистичное видео, на котором звучат слова, которые произносит Барак Обама, меняя положение губ соответствующим образом.

Ученые говорят, что эту программу можно использовать для создания спецэффектов или при улучшении качества видеозвонков.

"Когда вы связываетесь по Skype или Google Hangouts, связь, как правило, очень плохая, а видео имеет низкое разрешение, и это очень неприятно, а вот звук идет отлично, – отмечает Стив Сайтц, соавтор исследования и профессор в Вашингтонском университете. -

Поэтому, если вы будете использовать аудио для улучшения качества видео, это будет здорово".

До недавнего времени синхронизация движения губ на видео требовала долгих часов работы.

Однако эта компьютерная программа может создать видеоклип с новым звуком после анализа, который длится всего один час, а не 14 часов, как раньше.

Эффект от этой новости был таким шокирующим, что создатели программы почувствовали необходимость прояснить свои мотивы:

"Этот ролик носит исключительно исследовательский характер, и мы хотим прояснить цели нашей работы.

Наша задача – продемонстрировать возможности современных компьютерных визуальных и графических технологий и показать их понятным и интересным способом.

Мы хотим подчеркнуть, что созданные на компьютере видео стали частью художественных фильмов еще 30 лет назад.

Фактически каждый высокотехнологичный фильм имеет высокий процент синтетически сгенерированного контента (от "Властелина колец" до "Загадочной истории Бенджамина Баттона").

Результат сложно отличить от реальности, и часто остается незамеченным то, что контент нереален.

Новизна нашей работы заключается в том, что мы можем редактировать записанные ранее видео в реальном времени на обычном компьютере.

Обратите внимание на то, что наша работа также включает в себя попытки определить редактуру в видеороликах, чтобы определить их аутентичность
".
Предсказание сбывается?
К слову, использование подобных технологий для одурачивания народных масс описывалось как в художественной литературе, так и в фильмах.

В частности, в романе Пелевина "Generation П" описывалось, что политиков, которых показывают по телевизору, на самом деле не существует, их создают с помощью компьютерного моделирования. Чем выше пост виртуального политика, тем лучше его анимация.

Кроме того, подобные технологии показаны и в фильме "Эквилибриум": вождь выдуманной страны Либрии давно умер, а новый глава государства прячется за его компьютерной "маской", обращаясь к народу с нравоучительными речами.
Подробнее: http://www.vestifinance.ru/articles/88180   

PolitiFact https://github.com/KaiDMML/FakeNewsNet , занимающемуся проверкой заявлений политиков; EUvsDisinfo



Facebook начал ранжировать СМИ по рейтингу достоверности

02.05.2018
Основатель Facebook Марк Цукерберг заявил, что социальная сеть начала ранжировать СМИ по рейтингу достоверности, пишет BuzzFeed.
Цукерберг встретился с группой руководителей средств массовой информации после выступления на ежегодной конференции разработчиков F8. Во встрече приняли участие представители BuzzFeed News, New York TimesCNNWall Street JournalNBC, Daily Beast, Economist, HuffPost, Insider, Atlantic, New York Post и другие.
По его словам, компания уже начала внедрять систему, которая оценивает СМИ на основе рейтинга достоверности и позволяет продвигать или скрывать контент на основе этой метрики.
Цукерберг рассказал, что компания собрала данные о том, как пользователи воспринимают различные СМИ и доверяют ли они им.
«Мы помещаем [эти данные] в систему, и она работает на усиление или подавление, мы собираемся нарастить интенсивность этой системы с течением времени», — сказал он.

Google хочет фильтровать "российскую пропаганду"

21.11.2017
Компания Google работает над создание алгоритма фильтрации новостей, содержащих российскую пропаганду. Источниками пропаганды в компании считают прежде всего сайты RT и "Спутник", заявил руководитель материнского холдинга Alphabet Эрик Шмидт. 

По словам представителя Google, новости будут скрывать, для того чтобы противодействовать "российской пропаганде" и "противодействовать распространению дезинформации". Глава холдинга Alphabet заявил, что он выступает против цензуры, однако прошлый год показал, что аудитория не может самостоятельно распознать фейки….

Подробнее: http://www.vestifinance.ru/articles/94062

Подлец я или не подлец
07.11.2017
Юлия Меламед о том, кому и зачем нужна в наше время репутация

….Есть такой метод пропаганды. Называется «метод гнилой селедки». Описывают его так: Подбирается ложное обвинение. Важно, чтобы оно было максимально грязным и скандальным. Хорошо работает мелкое воровство или сексуальное домогательство к подростку.
Цель «гнилой селедки» вовсе не в том, чтобы обвинение доказать. А в том, чтобы вызвать широкое обсуждение. Тогда сразу появляются и «обвинители», и «защитники».
Но все участники дискуссии произносят имя обвиняемого в связке с обвинением, таким образом все больше «гнилой селедки» втирается его «одежду», пока наконец этот «запах» не начинает следовать за ним везде. А тогда вопрос «украл или не украл» становится главным при упоминании его имени.
Не знаю, убил ли, украл, осуществил ли рейдерский захват или нет, но осадочек... Сегодня этот старый проверенный (кстати, геббельсовский) метод можно переименовать в метод «Наброса».
А значит, поддерживать (и тем более инициировать) дискуссии на тему, подлец ли я или не подлец — не стоит. Связка «я» и «подлец» работает против тебя, а частица «не» теряется в процессе обсуждения.
Существует несколько проверенных способов реакций на оскорбления: 1. «Игноринг». 2. «Эльфинг». 3. Навязывание собственной повестки.
Игноринг — объяснять не надо. Эльфинг — разновидность игноринга, это ангелоподобное поведение. Но это тактические игры. Потому перейдем к третьему пункту. Навязывать собственный дискурс — а не находиться в рамках дискурса обидчика. Признанным виртуозом, лихим паганини этого жанра является российское руководство.
Ругают за Донбасс? Жахни по Сирии! Смени повестку.
Как говорили в советской юмореске о человеке, напившемся левых лекарств от простуды: «о всякой простуде даже думать забыл!... Так желудок свело»….
Да, сегодняшняя коммуникация ориентирована на массу непонимающих и нежелающих ничего понимать людей. И при этих правилах игры играть почти невозможно.
Тебя не только считают тварью дрожащей, но и права лишают.
Лишают права на сопротивление и на собственное «я» не серьезным аргументом, а через вышучивание, через бесконечный сарказм, где о смысле и речи не идет. И тогда твое сопротивление — это важная попытка придавать значение тому, чему ты придавать значение считаешь нужным. Поэтому если хватит пороху — сопротивляйся. Главное, не в чужой системе координат, а в своей.: https://www.gazeta.ru/comments/column/melamed/10972886.shtml

Купились: девочку-блогера объявили агентом «фабрики троллей»
Шутки про голую Кардашьян сменили ненависть к черным и компромат на Хиллари
Популярную американскую блогершу в Twitter связали с российской «фабрикой троллей»
Американское издание The Daily Beast выпустило материал о Дженне Абрамс — владельце популярного Twitter-аккаунта, которая на протяжении нескольких лет резко высказывалась как по политическим темам, так и по поводу голых селфи Ким Кардашьян. Журналисты утверждают, что девушка оказалась фейком, а за ее Twitter стоит российская «фабрика троллей». Аккаунт был создан в 2014 году и, как утверждают авторы статьи, представлял обычную американскую девушку: она попадала в подборки СМИ под заголовками «15 самых забавных твитов недели», подкалывала знаменитостей и таких же пользователей. В какой-то момент Дженне удалось собрать более 70 тысяч подписчиков.
Шутки о Кардашьян резко сменились политическим дискурсом
В апреле 2016 года Twitter-пользователь внезапно начала рассуждать о флаге Конфедерации и причинах Гражданской войны в США. Количество подобных высказываний нарастало, в полемику с ней вступали журналистки, политики и знаменитости, и в какой-то момент на защиту сетевой воительницы встали ультраправые. В период предвыборной президентской гонки многие твиты были посвящены поливанию грязью Хиллари Клинтон. Подписчики увидели в ней сторонника Дональда Трампа, на что Абрамс написала: «Успокойтесь, я не за Трампа, а за здравый смысл». В разное время Абрамс прошлась и по сторонникам Хиллари, неизменно повторяя, что тогдашний кандидат в президенты — «лжец», и по организации Black Lives Matter, написав целое сочинение в поддержку сегрегации.
До статьи The Daily Beast никто не сомневался в реальности Дженны Абрамс
Журналисты утверждают, что Абрамс, а точнее — те, кто стоял за аккаунтом, приложили немало усилий для создания образа существующего человека. В качестве причины автор указывает электронный адрес девушки: в описании ее аккаунта в Twitter была указана почта Google. «Много усилий было потрачено на то, чтобы создать образ реального человека с почтой, который хотел, чтобы американцы отправляли ему сообщения», — говорится в статье. Кроме того, у Абрамс имелся личный сайт, блог на Medium и страница в краудфандинговом сервисе GoFundMe. Острые высказывания девушки цитировали крупнейшие издания, причем не только американские: USA Today, Sky News, The Washington Post, Mashable, The Telegraph, CNN, «Би-би-си», The Independent, Business Insider, BuzzFeed, Russia Today и Sputnik. При этом многие статьи, в которых упоминался аккаунт, не имели ничего общего ни с Россией, ни с политикой в принципе.
Американское издание не привело никаких доказательств по поводу происхождения Абрамс
«Появление Абрамс в американских новостных изданиях показывает, насколько сильно повлияла российская "фабрика троллей" на американский дискурс в преддверии выборов в 2016 году, и иллюстрирует, как точка зрения русских может просачиваться в мейнстримовые СМИ в США без единого доллара, потраченного на рекламу», — рассуждают журналисты The Daily Beast. При этом в тексте значится, что за учетной записью стоят сотрудники Агентства интернет-исследований из Санкт-Петербурга, более известного как «фабрика троллей». Источник информации в материале не указан, но упоминается недавняя публикация конгрессменов политической рекламы, которая, как утверждает руководство Facebook и Google, оказалась элементом российской пропаганды в 2016 году. В настоящее время аккаунты, связанные с Дженной Абрамс, заморожены. Некоторые ее твиты сохранены в архивах. При попытке отправить письмо на почту, ранее указанную для связи с блогершей, приходит уведомление об отключении аккаунта.: https://lenta.ru/brief/2017/11/03/jenna/

"Так врут, что дух захватывает". Иск против российских телеканалов
Марина Литвиненко, вдова убитого в 2006 году в Лондоне Александра Литвиненко, и его друг Александр Гольдфарб решили судиться с двумя российскими телеканалами – Первым каналом и RT.
18 июня адвокаты Литвиненко и Гольдфарба направили Константину Эрнсту и Маргарите Симоньян письма с требованием опровержения клеветы, прозвучавшей в их эфире.....: https://www.svoboda.org/a/29303775.html
10 способов манипулирования людьми с помощью СМИ

Ноам Хомский (Aмериканский лингвист, политический публицист, философ) составил список «10 способов манипулирования» с помощью средств массовой информации.

1 — Отвлечение внимания
Основным элементом управления обществом является отвлечение внимания людей от важных проблем и решений, принимаемых политическими и экономическими правящими кругами, посредством постоянного насыщения информационного пространства малозначительными сообщениями. Прием отвлечения внимания весьма существенен для того, чтобы не дать гражданам возможности получать важные знания в области науки, экономики, психологии, нейробиологии и кибернетики.
«Постоянно отвлекать внимание граждан от настоящих социальных проблем, переключая его на темы, не имеющие реального значения. Добиваться того, чтобы граждане постоянно были чем-то заняты и у них не оставалось времени на размышления; с поля — в загон, как и все прочие животные (цитата из книги «Тихое оружие для спокойных войн»).
2 — Создавать проблемы, а затем предлагать способы их решения
Данный метод также называется «проблема-реакция-решение». Создается проблема, некая «ситуация», рассчитанная на то, чтобы вызвать определенную реакцию среди населения с тем, чтобы оно само потребовало принятия мер, которые необходимы правящим кругам. Например, допустить раскручивание спирали насилия в городах или организовать кровавые теракты для того, чтобы граждане потребовали принятия законов об усилении мер безопасности и проведения политики, ущемляющей гражданские свободы.
Или: вызвать экономический кризис, чтобы заставить принять как необходимое зло нарушение социальных прав и сворачивание работы городских служб.
3 — Способ постепенного применения
Чтобы добиться принятия какой-либо непопулярной меры, достаточно внедрять ее постепенно, день за днем, год за годом. Именно таким образом были навязаны принципиально новые социально-экономические условия (неолиберализм) в 80-х и 90-х годах прошлого века.
Сведение к минимуму функций государства, приватизация, неуверенность, нестабильность, массовая безработица, заработная плата, которая уже не обеспечивает достойную жизнь. Если бы все это произошло одновременно, то наверняка привело бы к революции.
4 — Отсрочка исполнения
Другой способ продавить непопулярное решение заключается в том, чтобы представить его в качестве «болезненного и необходимого» и добиться в данный момент согласия граждан на его осуществление в будущем. Гораздо проще согласиться на какие-либо жертвы в будущем, чем в настоящем.
Во-первых, потому что это не произойдет немедленно. Во-вторых, потому, что народ в массе своей всегда склонен лелеять наивные надежды на то, что «завтра все изменится к лучшему» и что тех жертв, которых от него требуют, удастся избежать. Это предоставляет гражданам больше времени для того, чтобы свыкнуться с мыслью о переменах и смиренно принять их, когда наступит время.
5 — Обращаться к народу как к малым детям
В большинстве пропагандистских выступлений, рассчитанных на широкую публику, используются такие доводы, персонажи, слова и интонация, как будто речь идет о детях школьного возраста с задержкой в развитии или умственно неполноценных индивидуумах.
Чем усиленнее кто-то пытается ввести в заблуждение слушающего, тем в большей степени он старается использовать инфантильные речевые обороты. Почему? Если кто-то обращается к человеку так, как будто ему 12 или меньше лет, то в силу внушаемости, в ответ или реакции этого человека, с определенной степенью вероятности, также будет отсутствовать критическая оценка, что характерно для детей в возрасте 12 или менее лет.
6 — Делать упор на эмоции в гораздо большей степени, чем на размышления
Воздействие на эмоции представляет из себя классический прием, направленный на то, чтобы заблокировать способность людей к рациональному анализу, а в итоге и вообще к способности критического осмысления происходящего. С другой стороны, использование эмоционального фактора позволяет открыть дверь в подсознательное для того, чтобы внедрять туда мысли, желания, страхи, опасения, принуждения или устойчивые модели поведения...
7 — Держать людей в невежестве, культивируя посредственность
Добиваться того, чтобы люди стали неспособны понимать приемы и методы, используемые для того, чтобы ими управлять и подчинять своей воле. «Качество образования, предоставляемого низшим общественным классам, должно быть как можно более скудным и посредственным с тем, чтобы невежество, отделяющее низшие общественные классы от высших, оставалось на уровне, который не смогут преодолеть низшие классы.
8 — Побуждать граждан восторгаться посредственностью
Внедрять в население мысль о том, что модно быть тупым, пошлым и невоспитанным...
9 — Усиливать чувство собственной вины
Заставить человека уверовать в то, что только он виновен в собственных несчастьях, которые происходят ввиду недостатка его умственных возможностей, способностей или прилагаемых усилий. В результате, вместо того, чтобы восстать против экономической системы, человек начинает заниматься самоуничижением, обвиняя во всем самого себя, что вызывает подавленное состояние, приводящее, в числе прочего, к бездействию. А без действия ни о какой революции и речи быть не может!
10 — Знать о людях больше, чем они сами о себе знают
В течение последних 50 лет успехи в развитии науки привели к образованию все увеличивающегося разрыва между знаниями простых людей и сведениями, которыми обладают и пользуются господствующие классы.
Благодаря биологии, нейробиологии и прикладной психологии, «система» получила в свое распоряжение передовые знания о человеке, как в области физиологии, так и психики. Системе удалось узнать об обычном человеке больше, чем он сам о себе знает. Это означает, что в большинстве случаев система обладает большей властью и в большей степени управляет людьми, чем они сами.
Ноам Хомский — американский лингвист, философ, общественный деятель, автор книг и политический аналитик. Заслуженный профессор языкознания в Массачусетском технологическом институте и один и выдающихся деятелей науки XX века. Его фундаментальные труды в области теории языкознания и науки познания получили заслуженное признание в научном и преподавательском сообществе.
Оригинал публикации: Diez formas distintas de manipulación mediática
Перевод: ИноСМИ.ру

Телепатологическая связь

Как агрессия рождается в телеэфире и проникает в зрительское сознание. Обзор методов, комментарии экспертов — и ведущего Артема Шейнина!
ОБЩЕСТВО  октября 2017

Власть считает, что в нападениях на активистов и журналистов нет вины современного российского телевидения. Специалисты уверены, что агрессия взращивается именно в телеэфире, и рассказывают, какими методами это делается.
Одной из тем, вновь возникших в связи с нападением на журналиста «Эха Москвы» Татьяну Фельгенгауэр, стало влияние современного телевидения на русском языке на телезрителя. Может ли просмотр телепередач, в которых в том числе «Эхо Москвы» клеймят как «врагов» и «предателей», стать спусковым крючком для психически неустойчивых людей к непоправимым действиям? У власти на это есть вполне очевидный и ожидаемый ответ — не может. Так сказал, в частности, пресс-секретарь президента Дмитрий Песков. «Подобные трагические случаи — они вызывают глубочайшие сожаления. И, скажем так, действия безумца — они и есть действия безумца. Пытаться с чем-то увязывать, окрашивать в какой-то цвет — это абсолютно нелогично и неверно», — сказал Песков журналистам на вопрос о влиянии телевидения на психику людей, подобных Борису Грицу.
Надо сказать, что на неделе с главным рупором Кремля заочно не согласился сам патриарх Кирилл, который заявил, что ему «страшно» при просмотре российских телеканалов (но у патриарха своя песня: он считает, что, несмотря на такой трэш по телевидению, верующих стало больше). На долгой дистанции с суждением Пескова и всей российской власти спорят специалисты — психиатры, телекритики и лингвисты. С их помощью «Новая газета» попыталась составить некую методологию рождения агрессии в телевизионном эфире и проникновения ее в зрительское сознание.

  • Метод «Свой-чужой»
Один из основных приемов, которым пользуются почти все современные телепередачи-«дискуссии», — это разделение героев на «своих» (по образу мыслей, по общности интересов, по нации даже) и «чужих». Как правило, это маскируется под объективность: якобы дается возможность высказаться всем сторонам. Но есть нюансы.
«В общественно-политическом ток-шоу к участникам «с правильной точкой зрения» ведущие подчеркнуто уважительны, дают им договорить фразу, всем своим видом показывают, что они стоят на этой же позиции, — объясняет телекритик Ирина Петровская. — Когда же они предоставляют слово противоположной стороне (человеку, который придерживается как бы «антигосударственной» точки зрения), они начинают его перебивать. Аплодисменты в студии явно дирижируются каким-то специальным человеком [в нужный момент]. Но также ведущие дают своим «правильным» гостям перебивать, орать, оскорблять собеседников». Это позволяет добиться эффекта, что человек с «чуждой» точкой зрения мелок, в явном меньшинстве и часто не совсем адекватный.
В качестве бонусного «оружия» может использоваться снисходительная улыбка ведущего или героев с «правильной» точкой зрения в кадре, когда говорит «инакомыслящий»: мы же, мол, все понимаем, что оппонент несет чушь. Таким, к слову, нередко пользуется Владимир Соловьев, однако он точно не пионер в этом жанре. Профессор Высшей школы экономики, филолог Гасан Гусейнов вспоминает эфир 2011 года на Первом канале, когда сатирик Михаил Задорнов пришел в студию к Александру Гордону, чтобы отстоять перед учеными свою «теорию» о происхождении языков. Тогда ему противостоял филолог Виктор Живов, и именно при помощи ведущего, считает Гусейнов, Живова поставили в неудобное положение.
«У матадора Задорнова были бандерильеро и пикадоры, помощники, несшие, если можно так выразиться, еще большую околесицу, чем сам этот клоун, — вспоминает Гусейнов. — Это был как бы голос народа, ни на чем не настаивавшего, а так, размышлявшего вслух, мол, а может, все эти ученые зря свой хлеб едят? И этот бессмысленный говорок смехом и прибаутками сопровождал так называемый телеведущий. Живову, который полагал, что его всерьез пригласили в качестве эксперта по научной дисциплине, эмоционально было с этим не справиться. Ученый вспылил, взорвался, начал браниться — и тут же получил отповедь уже от Задорнова, который начал играть роль арбитра теперь уже в споре между Живовым и одним из своих бандерильеро».
С помощью звукорежиссуры создается эффект того, что представителя нужной точки зрения все слушают с благоговением, а основной шум начинается как раз там, где в нормальной дискуссии все слушали бы убедительные аргументы. «Поскольку никакого положительного, рационального содержания в идеологии такой корриды нет, зрительские массы и напитываются только самой атмосферой, этим веселящим газом ненависти к умному человеку, все несчастье которого состояло только в том, что он дал себя поймать и вывести на арену, — продолжает Гусейнов. — Его пригласили для развлечения и для того, чтобы показать: «Неважно, какую ложь и какую чушь мы будем нести, и неважно, какие умные вещи скажешь ты! Это — неважно. Важно, что мы одолеем тебя — ничтожного одиночку и умника, если ты попрешь против нас!»

  • Метод перевода во враги
Высмеивание чужеродной точки зрения — это первый и, если так подумать, низший уровень рождения агрессии. Следующая стадия — повышение градуса нетерпимости к человеку. Недостаточно его просто увести в фоновый шум, нужно увеличить уровень агрессии через грубость, вербальную и невербальную. «Так называемый ведущий играет своего в доску, честного, патриотически настроенного мужика, который не может стерпеть фальши и лицемерия со стороны Запада и любого представителя Запада, — Гасан Гусейнов объясняет систему на примере Артема Шейнина и Первого канала, но это — с оговорками — работает и в других случаях. — Шейнин, как и Соловьев или Киселев, может выступать только в полностью подконтрольной ему студии, окруженный помощниками и бригадами подкупленных граждан, где он — д'Артаньян, а все остальные в лучшем случае тупые слуги гвардейцев кардинала. Отсюда — фальшивая эмоция, возбужденная попыткой скрыть ложь первого порядка».
Когда градус нужно повысить ещедопустимо и прямое насилие в кадреПсихологическое — это когда тот же Шейнин выносит ведро с «фекалиями» для противника (вопрос, почему ведущий считает кого-то противником, в принципе риторический). И физическое — когда человека просто берут за грудки или бьют.
Ведущий российского ТВ Артем Шейнин прославился эпизодом с «ведром дерьма», которое он внес в студию и предложил «съесть» одному из гостей. «Это шоколад», — успокоил он зрителей...
Какая это может быть эмоция? В первую очередь злоба. «На этих ток-шоу часто используются такие обороты, как «заткнись», «заткни свою пасть», «хорош орать», — перечисляет Ирина Петровская. — Такие вещи вообще недопустимы в обычном диалоге цивилизованных людей, а тут — публичная дискуссия на телеканале. Например, Андрей Норкин (которого почему-то считают интеллигентным человеком — видимо, потому что он в очках) может позволить себе самолично вытолкать гостя со словами «пошел на хрен» и «баран». Это может быть и наигранно — «формат требует», — и вполне искренне (см. комментарий Артема Шейнина).«Шейнин реально применил физическое воздействие к гостю-американцу Майклу Бому, — напоминает телекритик. — Он схватил гостя за шею и оскорбительным жестом начал наклонять его голову в сторону. Он дал ему шлепок по шее со словами: «Ты чего меня провоцируешь?»
Такими поступками создается ролевая модель для будущего поведения телезрителя в похожих ситуациях. «Когда ведущий ток-шоу, который для обывателя звезда, почти Бог, позволяет себе взять кого-то за грудки, выгнать из зала, грубость в отношении аудитории, зритель думает: «Он же может. Почему я не могу? И я могу так сделать по отношению к человеку с иностранным акцентом, мне ведь говорят, что в Америке все враги», — объясняет психиатр Андрей Бильжо. А с учетом того, что герои — как правило, зарабатывающие на своем позоре, — не дают никакого отпора, в «правильности» этой стратегии поведения обычные люди утверждаются дополнительно.

  • Метод нагнетания
После этого (хотя чаще всего параллельно) в дело вступает интонационное оружие агрессии. «Поддающихся гипнозу людей довольно много, порядка 86 % (очень забавная цифра — Ред.), — говорит Бильжо. — Я не знаю, откуда телеведущие научились поразительным порой закадровым интонациям тревоги и ужаса даже в те моменты, когда говорят о какой-нибудь ерунде. Даже спортивные новости сегодня анонсируют так, что возникает чувство тревожности, как будто кто-то умер на футбольном поле. Домохозяйка, которая готовит, может даже не смотреть в экран, но она слышит голос, и ей уже страшно, учащается пульс. Это влияет на людей с неустойчивой психикой — не психически больных, а впечатлительных, неспособных анализировать, что им говорят».
За счет такой интонации, акцентов на определенных словах (это четко видно в фильмах из серии «Анатомия протеста», а также в сюжете «Эхо Госдепа», где в том числе говорилось и о Татьяне Фельгенгауэр) люди с личными проблемами соединяют в голове одно с другим, получая поразительный по силе воздействия результат.
«Люди с социальными проблемами сначала ведут личный поиск причин, почему им нехорошо. А потом им по телевизору говорят, что тут у нас красно-коричневый, тут либералы — и так далее, — поясняет механизм принятия рокового решения заведующий отделом медицинской психологии научного центра психического здоровья РАМН, психолог Сергей Ениколопов. — И тут человек понимает, кто виноват в его бедах, а если есть источник зла, в голову может прийти идея его уничтожить».
Ениколопов добавляет, что создается определенная картина мира, и человек, получивший сценарии поведения в различных ситуациях, будет думать именно так, как его запрограммировало телевидение — «я же знаю, я видел такое». «Еще одна проблема, что телевидение сильно снижает порог сочувствия к жертве. На экранах нам показывают итог: жертва уже мертва, она не сильно мучилась. После такого меньше реагируешь на чужую боль, именно физическую», — говорит психолог. А когда это соединяется с тем, что жертвой является «враг», на выходе мы получаем историю про «Фельгенгауэр сама виновата».
  • Метод доминирования
Наконец, чтобы создать у зрителя ощущение единственно верной стратегии поведения — той, которая навязана телевидением, — нужно обеспечить тотальность такой повестки. «Передачи, которые выходят в пятничный прайм-тайм, рассчитаны на массовую аудиторию, — говорит Ирина Петровская. — Днем, например, «60 минут» и «Норкин» — это для домохозяек и пенсионеров, которым тоже нужно давать картину мира, потому что они являются главным электоральным ресурсом сегодня. Это ведь самая внушаемая и привлекательная аудитория».
Вечером начинается новостной блок, в котором доминируют «вечерние ток-шоу», которые уже — «оружие массового поражения». К ним добавляются сериалы: в тех же «Спящих» о похождениях «оппозиции» журналистке перерезают горло — вкупе с остальными деталями телевизионной агрессии вполне себе детонатор.
А скрепляется это все «информационными» сюжетами вроде «Эха Госдепа». «Это — пример абсолютной безнаказанности лжи. Те, кто соучаствует в этом, совершенно напрасно думают, что их имена просто забудутся, и они либо выйдут совсем сухими из воды, либо потом отмоются. Все их ходы записаны», — говорит Гасан Гусейнов.
Единственным средством сопротивления цунами телевизионной агрессии все, не сговариваясь, называют уход от него. «К сожалению, не все понимают, что единственное средство сопротивления в данном случае — тотальный бойкот государственного телевидения со стороны гражданского общества», — формулирует Гусейнов. Беда лишь в том, что бойкот ему объявлен очень давно — но лишь со стороны небольшого количества людей. Остальных же вполне устраивает происходящее. Два ведра ток-шоу этим господам!
Вячеслав Половинко, Татьяна Васильчук, Вера Юрченко, «Новая»

Поварята тролли расчехлились перед журналистом ABC News
Жалобы американцев на кибервойну, которая постоянно присутствует в меню президента Путина и стряпается поваром Путина в 4-х этажном здании кухни на Савушкина, нашли очередное подтверждение после визиты команды журналистов АВС News в Россию.
Журналистка Людмила Савчук рассказала Харрису какие нравы царят за стенами секретного офиса и какого рода работу ей приходилось выполнять за $700 в месяц.
Пропагандистское меню Людмила не отличалось разнообразием, но темы тщательно визировалось шеф поварами: негативные последствия свободной торговли оружием в США, проблемы, связанные с гомосексуализмом, тяжелая жизнь мигрантов.
Всякий раз Савчук выдавала себя за соответствующего персонажа, будь-то черного или белого и активно постила или создавала твиты в соответствующих группах и соцсетях.
Подобную же работу выполнял другой тролль поваренок — Алан Бескаев. Он тоже внимательно отслеживал конфликтные ситуации, такие как расовые волнения в Шарлотвилле, стычки черных с полицией, другие протестные акции и вклинивался в сетевой разговор или создавал новые темы, выдавая себя, то за столяра краснодеревщика, то за водителя дальнобойщика — по ситуации.
Харрису рассказали, что для повышения компетенцией поварят, некоторых даже командировали в США для лучшего освоения языка и слэнга, например тех же афро-американцев.

На самой тролль-кухне американский отдел глубоко законспирирован и не смотря на то, что выборы 2016 давно состоялись, отголоски тролль пропаганды до сих пор дают о себе знать.: http://www.infotekst.ru/zhaloby/povoryata-trolli-raschekhlilis-pered-zh.html 

Вести.net: Twitter и Facebook ополчились на ботов-пропагандистов
24.02.2018 

Сервис микроблогов Twitter вводит новые правила борьбы с политической пропагандой. В своем официальном блоге компания сообщила, что запретит пользователям публиковать одинаковые сообщения с нескольких аккаунтов. Кроме того, под запрет попали одновременные ретвиты и лайки. Как отмечается в блоге, эти инструменты — одновременная публикация твитов, ретвиты, и проставление лайков с нескольких аккаунтов — могут помочь вывести какую-либо тему в тренды Twitter, преувеличив ее значение.
Похожие меры принимает и Facebook. Социальная сеть ужесточила правила для рекламодателей. По новому регламенту желающим разместить любую предвыборную агитацию на любых выборах в США компания будет отправлять коды подтверждения бумажной почтой на американские почтовые адреса.https://hitech.vesti.ru/article/777164/


25 января 2017 Дарья Загорская
Психологи испытали "вакцину" от поддельных новостей
Результаты социологических опросов, проведённых по всему миру, показывают, что, хотя большинство людей и осведомлены о глобальном потеплении, далеко не все из них уверены в том, что оно действительно имеет место быть. Происходит это потому, что кроме научно доказанных фактов в средства массовой информации просачивается множество сомнительных умозаключений, не имеющих какого-либо вразумительного обоснования. Высокая политизированность данного вопроса ещё больше усугубляет сложившуюся ситуацию. Аналогичная проблема касается и многих других животрепещущих тем сегодняшнего дня.
Международная команда психологов из Университета Кембриджа, Йельского университета и Университета Джорджа Мейсона решила подойти к вопросу влияния ложной информации на мнение людей с совершенно неожиданной стороны. Учёные подумали, что такой успешный метод, как вакцинация, а точнее его основной принцип, вполне может сгодиться и для психологии.
Другими словами, они решили, что если человеку выдать небольшое количество заведомо ложной информации, таким образом "сделав прививку", то у него "выработается иммунитет" к дезинформации, и в будущем он самостоятельно сможет отсеивать откровенную ложь и основывать своё мнение только на проверенных фактах.
Для того чтобы изготовить "вакцину", ведущий автор исследования доктор Сандер ван дер Линден (Sander van der Linden) и его коллеги искали наиболее убедительные фальшивые высказывания о текущих климатических изменениях, которые были растиражированы в разных уголках Интернета и оказали существенное влияние на общественное мнение.
"Победителем" было признано утверждение, что среди учёных не существует единого мнения по поводу глобального потепления. Данное высказывание, в частности, распространяется с лёгкой руки проекта Oregon Global Warming Petition Project. На сайте организации утверждается, что 31 тысяча американских учёных подписала петицию о том, что нет никаких убедительных доказательств тому, что выбросы углекислого газа за счёт человеческой деятельности приведут к изменению климата.
В противовес этой откровенной дезинформации психологи использовали достоверное утверждение о том, что 97% учёных признают антропогенный фактор одной из основных причин климатических изменений.
Вооружившись всем необходимым, исследователи провели замаскированный эксперимент на онлайн-платформе Amazon Mechanical Turk, в котором приняли участие более 2000 человек из США разного возраста, образования, пола и политических взглядов. Данная площадка позволяет "заказчикам" привлекать людей для выполнения тех или иных задач за плату.
В первой части экспериментов различным группам участников предлагали либо ложную информацию в виде скриншота со страницы сайта петиции, либо правдивую в форме круговой диаграммы, либо последовательно сначала правдивую, затем ложную. На протяжении всего эксперимента людей просили оценить уровень своего доверия к факту наличия консенсуса, то есть единого мнения, среди учёных по поводу климатических изменений.
В первом случае уровень доверия падал в среднем на 9%, во втором – возрастал на 20%. Психологи были удивлены, обнаружив, что последовательно представленная правда и ложь практически нейтрализовали друг друга, и мнение опрошенных изменялось не более чем на 0,5%.
"Неприятно осознавать, что дезинформация настолько сильна в нашем обществе, — рассказывает Линден в пресс-релизе Кембриджа. — Мнение людей относительно изменения климата недостаточно прочное. Они знают, что дебаты продолжаются, но не всегда понимают, во что верить. Противоречивые сообщения постоянно возвращают их обратно в точку отсчёта".
На следующем этапе двум группам опрашиваемых психологи "сделали" две разные "прививки" от дезинформации. Первая носила общий характер. Участникам предварительно сообщали, что некоторые политически мотивированные организации используют тактику введения в заблуждение общественности и утверждают, что среди учёных много разногласий. "Вакцина" для второй группы была узко направленной — против сомнительной петиции. Опрашиваемым указывали на то, что некоторые из заявленных подписей принадлежат, например, Чарльзу Дарвину или музыкальной группе Spice Girls и что менее 1% всех подписантов имеют опыт работы в области наук о климате.
Для всех "привитых" участников ложное сообщение после правдивого действительно не нанесло никакого ущерба мнению. В первой группе принятие существования согласия между учёными увеличивалось в среднем на 6,5%, а во второй группе — на 13%.
Интересно, что "прививки" сработали только на людях, которые изначально были склонны полагать, что консенсус в научных кругах уже давно достигнут. А вот большинство опрошенных, которые предпочитают верить в разнообразные "теории заговора", так и оставались при своём мнении.
Более подробно с результатами необычного исследования и выводами авторов можно ознакомиться, прочитав статью, опубликованную в журнале Global Challenges.
Мы же отметим, что проблема дезинформации в СМИ стара как мир, и вряд ли кому-то когда-то удастся с нею справиться на все 100%. Но у каждого человека есть выбор, чему верить и как выстраивать своё мнение: на проверенных временем фактах или же на эмоциональных умозаключениях сегодняшнего дня без какого-либо достойного обоснования.

«IT-гиганты свели сеть к котикам»
Матвей Алексеев о том, почему интернет перестал делать людей умнее

Основным критерием информационной грамотности является критическое мышление. Но именно с ним у современных интернет-пользователей возникают большие проблемы. Одно из следствий отсутствия критического мышления — активное распространение фейковых новостей.
Представьте себе отвертку. Наверняка многие из вас не забыли ее предназначение. Или обычные пальчиковые батарейки. Вы едете в известный шведский магазин, чтобы купить батарейки и отвертку. Почему-то в вашем чеке на выходе значится сумма в размере 15 тыс. рублей. Как же так вышло?
Потому что вы купили подставку под чайник, пару наволочек, плед, горшок и стульчик. Ну и еще по мелочи. Теперь уже и не помните, зачем нужны были батарейки и отвертка. На этом примере, как мне кажется, можно начать обсуждать критическое мышление. А точнее — его отсутствие.
Ведь для того, чтобы купить батарейки и отвертку, можно было выйти в ближайший хозяйственный, но подсознание сформировало для вас образ одного места — известного шведского магазина.
Такие казусы стали происходить все чаще.
Люди верят подсознанию не потому, что оно выдает решения идеологически более удовлетворяющие, чем факты, а просто потому, что не могут отличить ложное от истинного в буре информационной перегрузки.
Опыт ориентирования в медиаполе можно назвать информационной грамотностью. Некоторые эксперты оценивают это понятие как условие выживания в современную эпоху. Грамотный человек не тонет в потоке информации, а находит, оценивает и использует данные, чтобы эффективно решать ту или иную проблему.
Первичным и основным критерием наличия информационной грамотности является критическое мышление. Однако интернет стал олицетворением его рудиментации. Это касается и модели потребления новостного контента, и отношения к информации в целом.
Новости формируют у нас представление картины мира. Когда источников информации было немного, потребление новостного контента было монополярным. Сейчас новости доступны в различных форматах. Порой их и вовсе создают сами читатели с помощью социальных сетей, блог-платформ, Telegram-каналов, чат-ботов и других площадок для коммуникации. Но эти площадки не позволяют сосредоточиться на действительно важной информации и не обеспечивают проверку истинности.
Одним из результатов этих изменений стало появление так называемых фейковых новостей, которые уже наделали немало шума на Западе.
В январе этого года Хант Оллкот из Университета Нью-Йорка и Мэтью Гентцков из Стэнфордского университета представили полномасштабное исследование о влиянии фейковых новостей на выборы в США. Доклад подарил некую надежду на то, что критическое мышление у людей все же еще сохранилось.
Ученые задавали тысячам респондентов вопросы о том, поверили они той или иной новости. Новости, которые попали в исследование, были найдены с помощью «справочника дезинформации» Snopes, «сайта для фактчекинга» PolitFact и редактора BuzzFeed Крейга Сильвермана, кропотливо собирающего предвыборные фейки. Также ученые добавили еще собственные вымышленные (плацебо) истории.
Опрос продемонстрировал, что 70% слышали и видели настоящие важные новости о политиках, но поверили им 60%. В то же время фейки видели только 15%. Посчитали их правдой лишь 8% респондентов.
Исследователи разобрались и с положением соцсетей как источника информации в жизни американцев. Такого рода проекты оказались только на пятом месте, уступив кабельному и сетевому телевидению, веб-сайтам и региональному ТВ.
Проведя ряд математических манипуляций и помня, что людей периодически подводит память, авторы исследования пришли к выводу, что воздействие оказалось на уровне одного процента.
Чтобы фейковые новости смогли повлиять на результаты выборов, одна такая публикация должна быть в 36 раз убедительнее политической рекламы.
Фейковые новости все-таки не оказали существенного влияния на выборы, но стали значимым явлением в медиасфере, заставив людей задуматься о проверке поступающей к ним информации. Не стоит забывать, что с каждым годом влияние соцсетей и мессенджеров в жизни людей возрастает. Если предпринять необходимые меры сейчас, то мы еще можем успеть сделать интернет «снова великим».
Научное сообщество и энтузиасты из мира журналистики озаботились вопросом задолго до выборов 45-го президента США: появился ищущий «утки» проект Emergent, был инициирован запуск First Draft Coalition и площадок, проверяющих достоверность информации, вроде Snopes, Politifact, Сlaimbuster и FactCheck.org. Но для простых пользователей это ни о чем не говорящие названия. Проблему с фейками предстоит решать в первую очередь Google и Facebook.
Региональный общественный центр интернет-технологий (РОЦИТ), изучающий уже который год цифровую грамотность россиян, указывает, что IT-гиганты подстраиваются под аудиторию и вместе с этим приводят к вырождению интернета интересного, интернета образовательного и интернета развлекательного.
Компании свели сеть к котикам, вместо слов мы стали дарить даже не конфеты, а смайлики, эмодзи и стикеры. Миллионы людей переписываются исключительно этими картинками и иконками.
Безусловно, таков был запрос общества, но медиа и бизнес этому запросу полностью отдались, не пытаясь воспитывать и просвещать свою аудиторию.
После выборов соцсеть Цукерберга объявила, что будет привлекать некоторые вышеупомянутые сторонние организации, чтобы распознавать фальшивые новости и не давать распространять их дальше. Пользователи также самостоятельно смогут участвовать в определении фальшивки. Google решила наказать сайты с недостоверной информацией долларом, запретив рекламный сервис AdSense.
В свою очередь, специалисты Кембриджского университета разработали «вакцину», которая может стать эффективным инструментом в борьбе с распространением фейков. Для выработки «иммунитета» у читателей необходимо использовать методы психологического воздействия. Ученые уверены, что небольшие дозы дезинформации могут приучить читателей относиться к новостям более критично.
Такая вакцина просто обязана появиться в эпоху, когда образовательные системы из-за многополярности источников ориентированы на тесты вместо того, чтобы воспитывать в людях оценочные компетенции.
Что мы видим сейчас? Языки деградируют, контент превращается в жвачку, а мозг знает только, как открыть «Википедию».
Что нужно? Снова научиться думать, анализировать, любить, желать, чувствовать и наслаждаться, но не только в виртуальном мире, а в мире, где мы все находимся в реальности. Интернет — это крайне значимая среда, предоставляющая потрясающие возможности для обогащения знаниями и коммуникации с другими людьми. И именно поэтому нам нужно превратить его в полноценный инструмент развития, а не бесконечной деградации.

Браузер Microsoft распознает фейковые новости
ОЛЕГ ИЛЮХИН 

24.01.2019 17:06
Компания Microsoft внедрила в мобильную версию браузера Edge систему распознавания сфабрикованных новостей. В основе новой функции лежит детектор фальшивок NewsGuardкоторый предупреждает пользователя о ненадежных источниках и откровенных фейках.
NewsGuard основали бывший издатель The Wall Street Journal Гордон Кровитц и предприниматель Стивен Брилл. В числе консультантов проекта — бывший директор ЦРУ Майкл Хейден и основательница издания о высоких технологиях The Information Джессика Лессин. Благонадежность тех или иных новостных ресурсов оценивается по таким критериям, как разграничение мнения и факта, избегание вводящих в заблуждение заголовков, регулярные исправления ошибок и публикация уточнений, прозрачность (включая раскрытие источников финансирования и четкое разделение рекламного контента от редакционного).
Пока система оценивает преимущественно новостные ресурсы в США и ряд крупных международных изданий. Баллы выставляет команда опытных журналистов NewsGuard, а не компьютерные алгоритмы. Если сайт наберет недостаточное количество очков, он будет промаркирован красным цветом.
Новая функция News Rating ("Рейтинг новостей") на основе NewsGuard стала доступна в последнем обновлении Edge для iOS и Android. По умолчанию детектор фейков не включен — активировать его можно в настройках приложения. Нажав на значок в адресной строке браузера, пользователи могут узнать, насколько можно доверять тому или иному сайту и каким критериям NewsGuard он отвечает.

На сайте МИДа начали «разоблачать» фейковые новости. Аргумент всегда один — большой штамп «FAKE»
Meduza
 22 февраля 2017
Официальный представитель МИД РФ Мария Захарова 15 февраля пообещала открыть на сайте ведомства раздел с разоблачением фейковых новостей. В разделе, по словам Захаровой, будут собираться недостоверные сообщения ведущих западных СМИ и официальных представителей разных стран.
Представитель МИДа подчеркнула, что фейковые новости будут разоблачаться с помощью ссылок на первоисточники и достоверные данные. 22 февраля соответствующий раздел на сайте министерства открыли. И в нем все совсем не так, как обещала Захарова.
На момент написания заметки в разделе «Примеры публикаций, тиражирующих недостоверную информацию о России» опубликовано четыре материала. Каждый из них состоит из скриншота сайта СМИ с тем или иным сообщением, поверх которого нарисован большой красный штамп «FAKE».
Под скриншотами написано: «В этом материале распространяются данные, не соответствующие действительности». При этом никаких аргументов против того, что сказано в заметках, МИД не приводит.

Ситуация с российскими СМИ на Западе в последние годы становится все сложнее. Доклад под названием «Манипулирование информацией: вызов нашим демократиям» опубликован на сайте французского МИДа. В частности, утверждается, что RT и Sputnik якобы манипулируют информацией, изобретают факты и фальсифицируют документы, переводы и интервью. Складывается впечатление, что Запад боится конкуренции на своем информационном рынке. Там слишком давно привыкли к силе собственных пропагандистских средств и боятся «чужаков».

«Манипулирование информацией: вызов нашим демократиям» (France Diplomatie)
Совместный доклад Центра анализа, прогнозирования и стратегии (CAPS) при министерстве Европы и иностранных дел и Института стратегических исследований (IRSEM) под эгидой министерства обороны Франции
05.09.2018
Выдержки из доклада
….Специалисты американской некоммерческой организации RAND подразделяют арсенал Кремля для ведения «информационной войны» на четыре категории, в зависимости от степени контроля над ними со стороны Кремля:
1) государственные ведомства;
2) лже-НПО, получающие финансирование от государства и (или) тесно с ним сотрудничающие (например, фонд «Русский мир», созданный в 2007-м для продвижения за рубежом русского языка и культуры, а на деле служащий мостом между правительством и каналами влияния на зарубежную публику), RT, а также кремлевский аналитический центр IDC, имеющий отделения в Париже и Нью-Йорке;
3) другие организации, позиционирующиеся как независимые, но на деле являющиеся марионетками (вроде клуба «Ночные волки»). В этом сегменте Кремль занимает нишу для того, чтобы там не завелись другие, неугодные ему группы;
4) религиозные, политические или экономические образования, не подчиняющиеся Кремлю, но защищающие его интересы либо поддерживающие с ним близкий контакт (РПЦ, некоторые представители деловых кругов, отдельные зарубежные политические партии).
…. Изначально намерение было в том, чтобы улучшить имидж России, но этот маневр оказался неэффективным, поэтому теперь там, наоборот, стараются ухудшить имидж противника. Эти СМИ мало смотрят на международной арене, где доминируют CNN, BBC и Al-Jazeera, но большим успехом они пользуются у крайне левых, крайне правых и сторонников теории заговора.
Стр. 127
... 27 июня 2018 года Высший аудиовизуальный совет вынес официальное предупреждение RT France за «отступления от честности, точности информации и разнообразия точек зрения», поскольку в репортаже из Сирии от 13 апреля канал сфальсифицировал перевод слов свидетеля из Гуты: утверждалось, что он называет химическую атаку инсценировкой, хотя на самом деле он говорил о бушевавшем в регионе голоде. Канал впоследствии объяснил все «чисто технической ошибкой».
Стр. 132
Инициаторы East StratCom Task Force старательно подчеркивают, что «речь не идет о контрпропаганде». Работа группы приводится на интернет-сайте «EU vs Disinformation» (euvsdisinfo. eu), в еженедельном издании Disinformation Review и в социальных сетях под названием «разрушители мифов» (EU Mythbusters). Ее лозунг звучит как Don't be deceived: question even more (Не дайте обмануть себя: еще больше сомневайтесь), что является отсылкой к лозунгу RT (Question More — Больше сомневайтесь). Ее страница на русском языке пользуется достаточно большой популярностью, поскольку только на нее приходится четверть трафика сайта SEAE. С 2017 года группой было зарегистрировано более 2 500 случаев дезинформации (то есть, «историй, которые противоречат публично доступным фактам») на 18 языках.
Стр. 142
Наконец, существует риск того, что проверка фактов сама станет рынком, за который ухватится растущее число игроков (НКО, СМИ, цифровые платформы вроде Facebook): логика заработка и/или стремление продемонстрировать собственную добродетель в некоторых случаях встают выше поиска истины, что может дискредитировать использование этого инструмента в глазах некоторых людей. Это не говоря уже о том, что им иногда пользуются в собственных интересах те, кто активнее всех распространяют фальшивые новоститак, например, RT запустил FakeCheck на четырех языках.
…После обвинений в ударах по мирному населению в Сирии Кремль дал ответ с использованием «трех стратегий1. Отрицание фактов (…). 2. Милитаризация жертв (…). Москве и Дамаску удалось сформировать впечатление, что они наносили удары исключительно по экстремистским группам. 3. Нападки на очевидцев (…), одну из главных ролей среди которых играла гуманитарная организация, называвшаяся изначально «Сирийская гражданская оборона», а затем переименованная в «Белые каски». В частности «Белые каски» опубликовали фотографии кассетных зажигательных бомб, использование которых отрицают в Москве. В некоторых случаях компрометирующие сведения исходят из предоставленной самим Кремлем информации: так, например, 18 июня 2016 года в репортаже RT о визите российского министра обороны на авиабазу Хмеймим можно было увидеть подвешенные под бомбардировщиком Су-34 зажигательные кассетные бомбы РБК-500 ЗАБ-2,5СМ. Эта часть видео впоследствии была вырезана и теперь отсутствует в доступной на YouTube версии….
Стр. 177
(из списка рекомендуемых авторами доклада мер)
12. При необходимости нужно принимать законы. Государствам нужно быть способными принимать при необходимости следующие меры:
а) создавать законы против новостных фейков, если таковых еще нет, либо менять их таким образом, чтобы подогнать их под электронные СМИ;
б) активнее наказывать медийные платформы, следуя примеру британского Ofcom (оно многократно налагало взыскания на RT, и это по всей видимости оказало определенный эффект — а именно, устрашающий) и ужесточать законы, регламентирующие наказания за травлю в сети, особенно в отношении журналистов;
Стр. 184
*19. Изолировать иностранные органы пропаганды. Во-первых, их следует так напрямую и называть. Именно так поступил сразу после избрания французский президент, который, выступая в Версальском дворце в присутствии Владимира Путина, заявил на весь мир: *
«Russia Today и Sputnik на протяжении президентской гонки выступали в качестве органов распространения влияния и многократно распространяли ложную информацию обо мне лично и о моей предвыборной кампании. (…) Тот факт, что иностранные СМИ — под каким бы влиянием это ни происходило, это мне просто неизвестно — стали создавать помехи, принявшись транслировать ложь в рамках демократических выборов — это плохо. И по этому вопросу я не отступлюсь ни на шаг, ни на шаг. (…) Russia Today и Sputnik повели себя не как органы прессы и журналисты, а как органы влияния, пропаганды, и притом пропаганды ни больше ни меньше лживой».
Во-вторых, из этого надо делать соответствующие выводы — то есть, не давать им аккредитацию и не пускать их на пресс-конференции, предназначенные для журналистов.
Стр. 185
20. Нужно использовать юмор и развлекательные средства. Обычно для манипуляций характерен развлекательный характер, а контрмеры не достигают своей целы, потому что лишены его. Многие потребляют фейки, как вредную еду: знают, что это плохо, но потребляют ради удовольствия. RT и Sputnik занимаются инфотейментомэто смесь информирования и развлечения, и на этом фоне исправления могут показаться довольно скучными. По крайней мере, как свидетельствует многолетний опыт, юмор, сатира, шутки также хорошо работают против манипуляции информацией.
Стр. 197
D. Полемика (авторы доклада приводят вероятные аргументы противников и отвечают на них)
Неверный знак равенства: вы обвиняете в пропаганде RT и Sputnik, однако Al-Jazeera, CNN, BBC или даже France 24 занимаются тем же самым.
(Ответ на этот аргумент). Мы говорим не о пропаганде, а о манипуляции информацией. Al-Jazeera, CNN, BBC или France 24, конечно, помогают распространению влияния своих стран, но сохраняют редакционную независимость и соблюдают стандарты журналистики. В то же время, они не прибегают к приемам, которые часто используют RT и Sputnik, как, например, придумывание фактов и искажение документов, переводов и интервью.


 Создан симулятор распространителя ложных новостей

Американка Аманда Уорнер (Amanda Warner) создала игру Fake It To Make It, в которой необходимо придумывать и распространять фейковые новости. На проект обратил внимание один из редакторов игрового портала Kotaku.
Разработчица рассказала, что вдохновлялась историей македонского подростка, заработавшего 60 тысяч долларов на распространении фейковых новостей во время президентских выборов в США. Игроку необходимо писать или копировать из других источников новости, придумывать к ним громкие заголовки и распространять их в соцсетях.
В Fake It To Make It также предусмотрена система отслеживания социально значимых событий и ключевых слов, а также смоделированы механизмы поисковой оптимизации. «​Надеюсь, что с помощью этой игры у меня получится продемонстрировать пользователям, как создаются и распространяются фейковые новости», — отметила Уорнер.
Проблема фейковых новостей получила широкую огласку во время президентских выборов в США. Распространяемые через Facebook ложные сообщения обогнали по уровню интереса читателей реальные публикации авторитетных изданий. Так, 20 самых популярных фальшивок собрали 8 миллионов 711 тысяч шеров, лайков и комментариев, а 20 самых популярных статей СМИ — почти на полтора миллиона меньше.
По данным исследовательской компании Ipsos, в фейковые новости верят три четверти граждан США. «Выборы в США 2016 года стали важным событием для новой политической истории: информация и дезинформация стала доминирующей валютой избирателя», — комментировал полученные результаты представитель Ipsos.

Как мозг привыкает лгать
Ученые выяснили, где в голове находится центр лжи
Где в мозгу находится центр лжи и как человек привыкает к вранью, переходя от малой неправды к большой, на биологическом уровне выяснили британские нейробиологи, проведя необычный эксперимент.
Как наглядно демонстрирует предвыборная кампания в США, чем больше человек врет, тем легче ему это дается. Однако политика — не единственная сфера, в которой ложь столь распространена. В 1996 году Бернард Брэдстрит, финансовый директор компании Kurzweil Applied Intelligence, основанной известным американским изобретателем и футурологом Рэем Курцвейлом, попал в тюрьму по обвинению в мошенничестве. Изначально его махинации были относительно несерьезными — он просто подделывал квартальные отчеты.
Однако закончилось все глобальной аферой с сокрытием убытков компании и обманом инвесторов: по документам Брэдстрита, компания получала стабильный доход, на самом же деле — только теряла деньги. А инвесторы тем временем отдавали миллионы за ее акции. В похожей ситуации оказалась и обанкротившаяся в 2001 году крупная энергетическая компания Enron — ее сотрудники использовали различные офшорные схемы и фальсифицировали отчетность.
Историй, в которых из небольшой нечестности со временем вырастает полномасштабная ложь, довольно много. Этот феномен и взялась исследовать команда ученых из Университетского колледжа Лондона и Университета Дьюка в США. «Идет ли речь об уклонении от налогов, изменах, допинге в спорте, подделке данных или финансовых махинациях --
виновники часто припоминают, как маленькая ложь со временем росла словно снежный ком»,
— рассказывает нейробиолог Тали Шарот из Университетского колледжа Лондона, ведущий автор исследования. Результаты работы, опубликованные в Nature Neuroscience, наглядно демонстрируют, что чем больше человек врет, тем легче ему это дается.
В необычном исследовании приняли участие 80 человек. Каждому участнику на протяжении трех секунд показывали стеклянную банку с монетками на сумму от 18 до 43 долларов. Им сообщали, что эту же картинку показывали еще одному участнику (которого на самом деле играл актер), но в меньшем размере и всего на одну секунду. Также им говорили, что задача их партнера — приблизительно назвать сумму денег из банки, и для этого им нужен совет участника, отправленный с помощью компьютера. Это позволило исследователям зарегистрировать, как участники оценивали содержимое банок, не имея причин лгать.
Далее участники получили различные указания, так или иначе провоцирующие их на ложь. В зависимости от ситуации нечестность могла принести участнику пользу за счет партнера, принести пользу партнеру за счет участника, оказаться полезной для обоих либо для кого-то одного, не влияя при этом на другого. Например, в первом случае участнику говорили, что он получит награду в зависимости от того, насколько просчитается его партнер. Также участников заверили, что их партнеры не в курсе этих инструкций.
Сравнение данных между «честными» и «нечестными» оценками позволило ученым измерить расхождения в поведении.
Команда обнаружила, что участники начинали врать, 

только когда в дело вступали корыстные мотивы
,
причем количество ситуаций с «ошибочно» оцененной суммой в банке со временем увеличивалось. Они могли солгать и для обеспечения бонуса партнеру, но частота таких случаев была неизменна на протяжении эксперимента. В случае если выгоду получали оба, участники лгали чаще — видимо, считая, что в таком случае ложь более приемлема.
«Участники часто лгали тогда, когда это могло принести пользу и им самим, и партнеру, — комментирует Шарот. — Когда это было выгодно им, но вредило второму участнику, они лгали меньше». Однако число случаев лжи росло со временем только тогда, когда участник получал награду — видимо, для этого необходим личный интерес.
Это исследование впервые опытным путем доказало, что нечестное поведение входит в привычку, если раз за разом его повторять.
У 25 участников во время выполнения заданий снимали показания мозга с помощью фМРТ, функциональной МРТ, измеряющей изменения кровотока, вызванные нейронной активностью мозга. Исследователи сосредоточились на областях, ответственных за реакцию на эмоциональные раздражители. Эти области находятся преимущественно в миндалевидном теле, которое играет ключевую роль в формировании эмоций.
Когда участники лгали впервые, активность в этой области была высокой, но при повторяющихся актах лжи постепенно снижалась.
Важно, что чем больше снижается активность миндалевидного тела, тем больше вероятность более крупной лжи. Очевидно, что это и приводит к возрастающей нечестности. Явление, называемое адаптацией, заставляет нейроны менее бурно реагировать на стимул. Точно так же активность снижается, например, при повторяющейся демонстрации отталкивающих изображений — и они перестают казаться такими уж отвратительными.
«Когда ты жульничаешь впервые, например, скрываешь налоги, то от этого чувствуешь себя плохо — и это хорошо, это ограничивает твою недобросовестность, — объясняет Шарот. — Когда ты жульничаешь в следующий раз, ты уже адаптируешься. Негативная реакция, которая могла бы тебя сдержать, уже не такая сильная, и ты лжешь все больше».
Команда Шарот предполагает, что результаты исследования можно экстраполировать и на другие типы поведения. «Тот же самый механизм может лежать и при усилении рискованности или жестокости в поведении», — считает когнитивный нейробиолог Нейл Гарретт, другой автор исследования. По его мнению, исследование подчеркивает потенциальную опасность маленьких актов нечестности — со временем они могут перерасти в образ жизни.

В эпоху засилья ложной информации фактчекинг становится все более важной работой, считают авторы статьи. И хотя никто не утверждает, что предоставление людям точной информации заставит их изменить мнение, проверка фактов помогает обществу пересмотреть своё отношение к тем или иным заявлениям.
Project Syndicate (США): как проверка фактов позволяет выиграть в борьбе с дезинформацией
19.10.2019
Петер Кунлиф-Джонс (Peter Cunliffe-Jones) Лаура Цоммер (Laura Zommer), Ноко Макгато (Noko Мakgato), Уилл Мой (Will Moy)
ЙОХАННЕСБУРГ — По данным службы проверки фактов газеты «Washington Post», президент США Дональд Трамп сделал более 13 тысяч лживых или вводящих в заблуждение заявлений с момента своей инаугурации. Стоит ли после этого удивляться, что у людей появились сомнения: а действительно ли проверка фактов («фактчекинг») в заявлениях политиков является правильным ответом на проблемы нынешней эпохи дезинформации.
Когда в июле в Лондоне политики и журналисты из Европы, обеих Америк, Африки и Азии встретились на глобальной конференции, посвящённой свободе СМИ, они признали, что увеличение дезинформации ведёт к снижению доверия общества к политикам и СМИ. Но появления эффективных решений этой проблемы они не предвидят…. Но это не означает, что таких решений нет.
В мире существует почти 200 организаций, занимающихся проверкой фактов, и большинство из них работают, руководствуясь идеей, что предоставление обществу исправленной, точной информации убедит его изменить своё ошибочное мнение.
И поэтому не стоит удивляться, что большинство исследовательских работ о фактчекинге посвящены проверке этой идеи на практике. Результаты — многообещающие. Никто не утверждает, что предоставление людям откорректированной, точной информации гарантированно заставит их изменить своё мнение, но, как показывают неоднократные исследования, проверка фактов помогает обществу пересмотреть своё отношение к тем или иным заявлениям, даже когда представленные факты противоречат убеждениям, которых они твёрдо придерживаются. …
Организации, занимающиеся фактчекингом, должны сосредоточить внимание не просто на борьбе с ложной информацией, но и на определении источников надёжной информации, указывая на них своим читателям и подписчикам. Кроме того, мы должны работать со школами и другими образовательными платформами, помогая учить людей идентификации лживых и вводящих в заблуждение заявлений.
В Аргентине организация проверки фактов Chequeado запустила первую в стране программу обучения молодёжи навыкам критического мышления и новостной грамотности.
Устраняя не только симптомы дезинформации и недоверия, но и системные проблемы, лежащие в их основе, организации проверки фактов, СМИ, правительства и бизнес смогут оказать сопротивление всем этим тревожным тенденциям.

 25 октября 2016
Найдены причины человеческой лжи
Британские и американские психологи нашли причины, по которым человек начинает регулярно лгать. Посвященное этому исследование опубликовано в журнале Nature Neuroscience, кратко о нем сообщает издание The Guardian.
Как показали эксперименты ученых, малая ложьза которую человек получает даже небольшую выгоду, стимулирует адаптацию нервной системы к дальнейшему обману.
К своим выводам ученые пришли, проследив за поведением 80 добровольцев, участвующих в специальной игре. Волонтеры разбивались на пары, в каждой из которых присутствовал сообщник экспериментаторов. Добровольцы должны были оценить количество монет в банке, показанной на мониторе, но один из них, сообщник ученых, имел явную выгоду — он заранее знал примерное количество денег в емкости и принимал решение о выдаче монет, однако его заработок определялся разницей между собственной оценкой количества монет и оценкой компаньона.
Оказалось, что с течением времени, по мере развития игры, сообщники ученых обманывали своих компаньонов все больше. Экспериментаторам при помощи магнитно-резонансной томографии удалось проследить изменения, происходящие в ходе игры в коре головного мозга лжецов.
Выяснилось, что в момент первой лжи повышенную активность проявили миндалины. По мере того, как продолжалась игра, через 10-20 раундов — а половина ее участников обманывала компаньонов все больше — такая мозговая активность стала снижаться. Таким образом, по мнению исследователейучастники эксперимента приспосабливались к систематической лжи. Ученые полагают, что подобным образом организм человека может привыкать к повышенным рискам или насилию. В дальнейшем исследователи планируют проверить свое предположение

Догнать и переврать
Как российские чиновники изобрели постложь, которая покруче американской постправды

 27 февраля 2018
Кирилл Мартыновредактор отдела политики

Разрастается кокаиновый скандал. Правоохранительные органы Аргентины, расследующие дело о поставках наркотика через российское посольство в Буэнос-Айресе, опубликовали часть материалов дела. На фотографиях, в частности, можно различить бортовой номер самолета, который должен был доставить в Москву почти 400 кг кокаина в 12 чемоданах. По информации РБК, этот же номер (96023) закреплен за Ил-96 авиаотряда «Россия», перевозящего первых лиц государства. После публикации об этом был закрыт сайт russianplanes.net — некоммерческий проект, публикующий информацию о российских воздушных судах на основе открытых источников.
Известно, что в декабре 2016 года, когда и развернулись события «кокаинового дела», в Аргентине с официальным визитом побывал секретарь российского Совбеза Николай Патрушев. Аргентинская пресса утверждает, что Патрушев летел тем же самолетом, что и чемоданы. 20 декабря того же года при загадочных обстоятельствах погиб Петр Польшиков — начальник отдела латиноамериканского департамента МИД России. Всего за последние полтора года погибло девять высокопоставленных чиновников МИД.
Официальная российская позиция состоит в том, чтобы отрицать все. Сначала Мария Захарова выступила с заявлением о том, что только своевременное вмешательство российских дипломатов позволило пресечь канал распространения наркотиков, который был якобы связан исключительно со случайным техническим персоналом, работающим при посольстве. Затем специальное опровержение выпустило Управление делами президента РФ, курирующее летный отряд «Россия». Представитель ведомства Елена Крылова заявила, что информация о причастности Ил-96 с бортовым номером 96023 к перевозке кокаина не соответствует действительности, а сам номер быть подделан «при помощи современных технологий». Так что неизвестно, кто вез кокаин, но это точно не мы.
Стоит обратить внимание: наши официальные лица всегда сначала спрашивают, словно герой Арнольда Шварценеггера из фильма «Красная жара»: какие ваши доказательства? После того как факты предоставлены, чиновники включают вторую скорость: это еще ничего не доказывает. Где-то на заднем фоне Следственный комитет обязательно должен проводить допрос «украинского очевидца» гибели малайзийского «Боинга»: мол, не все так однозначно.
Похоже, пока весь мир обсуждает, что такое постправда, то есть ситуацию неразличимости истины и лжи в условиях современных медийных технологий, — Россия снова пошла особым путем.
Мы изобрели постложь, известную также как «отрицалово». При которой любое событие можно уверенно называть вымышленным, если очень сильно захочется и если начальство настойчиво попросит.
Как рациональные аргументы, так и очевидные факты против русской постлжи бессильны, и на этом, кажется, строится все наше сегодняшнее геополитическое величие. На Западе от нас снова откровенно отстают: там по старинке, считается, что если чиновника поймали за руку, то надо начинать официальное расследование.
Смотрим только на последние примеры. Вице-премьер Рогозин сначала хвалится в Сети своим «племянником Романом», а затем удаляет собственные твиты и заявляет, что никакого племянника у него никогда не было, журналисты все выдумали.
«Либерального демократа» из Госдумы Леонида Слуцкого публично обвиняют в сексуальных домогательствах к журналисткам, а Слуцкий говорит: «Никогда. Не по этому делу», и дальше ничего не происходит — тут вам не Америка. Допингом российские спортсмены, говорят нам, вообще никогда не пользовались, а если что-то и было, то случайно, без всякой связи с целенаправленной деятельностью российских чиновников. И совсем уже страшное и трагическое — из Сирии мы два раза уже уходили, а потом вдруг в нынешнем феврале там погибло неустановленное число российских граждан. Что говорят чиновники? Традиционное «их там нет», то есть «это не мы». На этом фоне Дерипаска, кстати, выглядит этаким европейцем, когда вместо тотального отрицания подает иск о защите права на частную жизнь.
Расцвет российской культуры постлжи начался с известных событий 2014 года, когда наших солдат сначала не было в Крыму, а потом их наградили за это медалями.
С тех пор нашим умением врать стало модно даже гордиться. В том смысле, что ведь их шпионы тоже врут, так кто же запретит нашим разведчикам? Глубочайшая истина, открытая российским обществом в последние годы, состоит в том, что «на Западе тоже воруют, а их СМИ заняты пропагандой», так что давайте с ними в этом соревноваться. Посмотрите, какие мы ловкие: врем даже лучше, чем Америка.
Конфликт начинается, когда традиционные предрассудки, свойственные гражданскому обществу на Западе, вступают в противоречие с нашим российским «отрицаловом». Показательный пример — расследование бывшего директора ФБР, ныне специального прокурора Роберта Мюллера, посвященное предполагаемому вмешательству российских граждан в американские выборы. У них институты выполняют функцию иммунной системы: если событие было, значит, оно было, и нужно установить все обстоятельства, вне зависимости от того, какие уважаемые люди этому сопротивляются. У нас — можно отрицать сам факт болезни.
В общем, очень трудно двум таким разным этическим системам — отечественной и импортной — выжить на одной планете. Видимо, одна из них со временем победит. На какую ставить?: https://www.novayagazeta.ru/articles/2018/02/27/75638-dognat-i-perevrat?utm_source=push 

Искусственный интеллект вычисляет лжецов по лицу

ОЛЕГ ИЛЮХИН 20.12.2017
На сайте научного архива arXiv.org опубликована работа, описывающая применение систем машинного обучения в залах суда. Чтобы выявлять свидетелей, говорящих неправду, авторы статьи предлагают задействовать технологии компьютерного зрения для считывания микровыражений лица (нахмуренные брови, выпяченные губы) и анализа тонового диапазона голоса.
Как говорят ученые, построенная ими предсказательная модель обнаруживает ложь с вероятностью до 90% — намного точнее, чем человек. Оценка основана на 104 видео инсценированных судебных заседаний с участием актеров, которым была дана инструкция рассказывать правду либо что-то скрывать.
"Обман — распространенное явление в нашей повседневной жизни. Одна ложь безвредна, в то время как другая может иметь серьезные последствия и стать реальной угрозой существованию общества, — пишут авторы работы. — Например, ложь в суде может повлиять на справедливость вердикта и позволить обвиняемому уйти безнаказанным. Следовательно, точное обнаружение обмана в ситуации, когда ставки высоки, имеет решающее значение для личной и общественной безопасности".
Однако, как считает журналист Motherboard Майкл Бирн, целесообразность применения искусственного интеллекта в качестве "детектора лжи" как минимум спорна, поскольку ему нужны наглядные примеры того, какие выражения лиц и какую частоту колебания голосовых связок следует принимать за истину, а какие за обман. Та прогностическая модель, что была создана учеными, ненадежна: набор данных включает только видео, на которых актеров попросили утаивать или говорить правду в разных ситуациях. Кроме того, ложь в зале суда может быть субъективна, а проявляемые людьми эмоции, например чувство сострадания со стороны присяжных, могут быть неверно истолкованы.


Как распознать ложь


Исследователи выяснили, как можно отличить правду от вранья
Попытки распознать ложь, основываясь на мимике и жестах человека, по своей эффективности не превосходят подбрасывание монетки, заявили ученые. О том, как любой человек может уличить собеседника во вранье, рассказывает отдел науки «Газеты.Ru».
О том, что мимика и жесты человека могут уличить его во лжи, слышали наверняка не только поклонники сериала «Обмани меня». Традиционно считается: когда человек врет, он испытывает волнение, которое может проявляться не только в изменении интонации или высоты голоса. Популярные книги по психологии, телесериалы и фильмы, интернет-сайт пестрят перечнями жестов, которые якобы свидетельствуют о лжи. В «списке подозреваемых» — отведение взгляда в сторону, прикрывание рта рукой, прикосновение к носу, оттягивание воротника, потирание глаз.
Так, ученые Алан Хирш и Чарльз Вульф, которые анализировали выступление Билла Клинтона в 1998 году (во время разбора дела о скандале, возникшем из-за обвинения Клинтона в сексуальной связи с Моникой Левински), заявили:
когда Клинтон говорил правду, он не прикасался к своему лицу, однако в моменты, когда президент лгал жюри, он дотрагивался до своего носа примерно один раз в четыре минуты.
Изучением мимики и жестов, которые могут рассказать о лжи, занимаются и ученые-психологи. К самым известным из них относится, например, Пол Экман — профессор Калифорнийского университета в Сан-Франциско. Именно он был главным научным консультантом и прототипом главного героя сериала «Обмани меня». Профессор Экман занимается исследованиями микромимики — смены тонуса мышц лица, которые придают ему разные выражения, — а также психологии эмоций. Несмотря на то что Пол Экман является признанным во всем мире авторитетом в этой области, некоторые ученые все же подвергают сомнениям научность его метода распознавания лжи.
Психологи проанализировали работы, целью которых было выяснить, действительно ли наблюдение за выражением лица человека и его телодвижениями может помочь распознать вранье. Всего были собраны данные 108 научных исследований, в которых принимали участие 16 537 человек. В результате выяснилось, что
среднестатистический человек может вычислить лжеца примерно с той же вероятностью, с какой бы сделал это, подбрасывая монетку.
Даже специалисты в этой области — детективы, психологи, судьи — не отличались повышенной точностью. Ученые утверждают, что с вероятностью выше 80% отличить вранье от правды смогли только 50 человек из 20 тысяч.
Профессор Томас Ормерод, глава Школы психологии Университета Сассекса, комментирует: «Не существует универсальных признаков, которые могут помочь распознать ложь. Допустим, я начинаю нервно хихикать, а другой человек, наоборот, становится серьезным. Кто-то смотрит собеседнику в глаза, а кто-то отводит взгляд в сторону». В качестве примера ученый приводит следующую ситуацию: например, сотрудники пограничной службы в аэропортах или службы безопасности на ответственных мероприятиях (Олимпийских играх) перед тем, как позволить человеку куда-либо пройти, задают ему серию стандартных вопросов, которые требуют односложного ответа, и при этом внимательно наблюдают за поведением опрашиваемого. Это мешает специалисту вникать в смысл того, что именно говорит человек, более того, он обращает внимание только на ограниченное число жестов, оставляя значительную часть вербальной и невербальной информации без внимания.
Профессор Ормерод и его коллега Корал Дандо провели масштабный эксперимент, доказав, что изобличить лжеца все-таки возможно, причем для этого не нужно иметь психологического или юридического образования. Подробнее ознакомиться с описанием эксперимента и его результатами можно в последнем выпуске The Journal of Experimental Psychology: General.
В исследовании приняли участие 97 мужчин и 65 женщин, работающих в службе безопасности аэропорта. Все специалисты прошли трехнедельную подготовку: 83 агента были обучены методикам, позволяющим вычислять лжеца по мимике и жестам, а оставшиеся 79 человек прошли тренинг по методике профессора Ормерода.
В течение восьми месяцев все агенты выполняли свою обычную работу — находились в аэропорту и беседовали со случайно выбранными людьми, стоявшими в очередях на паспортный контроль и досмотр багажа. Как всегда, специалистам требовалось изобличить обманщиков.
Особенностью работы в течение этих восьми месяцев было то, что среди настоящих пассажиров аэропорта имелись подставные — 113 мужчин и 91 женщина.
Всем пассажирам выдавались настоящие билеты и сообщалась «легенда» — краткая вымышленная история о том, кто они и куда едут, например: «В течение последних трех лет вы работали инженером в городе Нортгемптон, где вы родились и выросли. Вы едете в Чикаго, чтобы принять участие в международном конкурсе фехтования среди любителей».
Участникам эксперимента давалось несколько дней на то, чтобы придумать детали и заучить свою историю. По прибытии в аэропорт они становились в очереди вместе с настоящими пассажирами. Агентам указывали, людей из каких очередей им следует опрашивать.
В результате работы выяснилось: специалисты, действовавшие по методике профессора Ормерода,
смогли вычислить в 24 раза больше подставных пассажиров, чем те, кто руководствовался традиционными методами слежения за мимикой и жестами. В начале эксперимента первая группа агентов вычисляла 66% лжецов по сравнению с 3% второй группы. В конце испытательного периода показатели первой группы выросли до 72%, а второй — упали до 0%.

Секрет методики заключается в том, что агентам не нужно обращать внимание на невербальную информацию и задавать серии стандартных вопросов. Им нужно беседовать с каждым человеком индивидуально, требуя от него развернутого рассказа, а не односложных ответов. Например, можно попросить детально описать какое-то событие из прошлого человека — рассказать о том, как он устроился на работу. Если собеседник утверждает, что учился в Оксфорде, можно узнать, сколько времени занимала дорога от места проживания до места учебы.
Психологи уверяют: если человек заранее готовил рассказ о своей жизни, он все равно не в состоянии продумать абсолютно все детали. Поэтому подозреваемый в красках может расписывать компанию, в которой он трудится, и свои должностные обязанности, но о том, как его приняли в эту компанию, скажет кратко и неохотно. Кроме того, если человек будет придумывать новую информацию, ему придется запоминать больше деталей, а затем он может начать противоречить сам себе. В этом случае агенту не рекомендуется показывать, что он заметил нестыковки. Нужно продолжать разговор — возможно, тогда лжец запутается еще больше.
Еще один способ вывести человека на чистую воду — напрямую спросить его, был ли он честен с собеседником. Удивительно, но этот способ приносит свои плоды, что было доказано еще одним опытом. В нем добровольцы парами отвечали на вопросы викторины, причем за каждый верный ответ получали денежное вознаграждение. Один человек из пары был «сообщником» ученых, о чем второй участник не знал. Когда ведущий на время покидал комнату, актер предлагал партнеру перевернуть лист с ответами и подсмотреть их. После окончания викторины детективам полиции предлагалось поговорить с участником опыта и определить, согласился ли он сжульничать. Полицейские использовали метод Ормерода, прося испытуемых детально описать ход игры или рассказать о своей реакции на те или иные вопросы и не обращая внимания на мимику и жесты человека.
Профессионалы справились с заданием — точность вычисления лжецов составляла более 90%. Даже новички справлялись с заданием более чем в 80% случаев. Один эксперт и вовсе оказался мастером своего дела: он верно определил, лжет человек или нет, в 33 случаях из 33.
Некоторые детективы начинали беседу с прямого вопроса: «Жульничали ли вы во время игры?» Как утверждают психологи, все люди хотят быть честными в глазах окружающих. Именно из-за этого часть солгавших сразу же признавалась, что они смошенничали, а оставшиеся — те, кто жульничал, но заявил, что играл честно, — чувствовали неловкость на протяжении всего разговора и не хотели распространяться о своих успехах.
Как считает Томас Ормерод, его методика может помочь не только полицейским. Сам профессор утверждает, что таким образом вычисляет, когда ему лгут его дети.

1 сентября 2017
Ученым выделили 300 тысяч долларов на создание распознавателя фейковых новостей

Национальный научный фонд США выделил 300 тысяч долларов двум профессорам информатики и математики из Государственного университета Пенсильвании на разработку распознавателя фейковых новостей. Донгун Ли и Шьям Сундар работают над выявлением индикаторов лживой информации в Сети, сообщает Yahoo!.
"Фальшивые новости существуют уже много десятков лет, однако развитие интернета превратило их в опасный инструмент для манипуляции и влияния на мнение общественности", — заявили ученые.
Ученые собираются разработать специальные программы, которые позволят достоверно проверять ту или иную информацию на истинность. Для этого им придется изобрести специальный математический аппарат.
Разработкой средств, которые позволили бы снизить количество фейковых новостей, уже занимаются многие крупные международные корпорации.
В частности, в январе в США анонсировали проект Facebook Journalism Project, включающий в себя сотрудничество со СМИ в области разработки новых продуктов, обучение журналистов работе с инструментами Facebook, а также повышение новостной грамотности рядовых интернет-пользователей.
Компания Twitter также намерена внедрить функцию, которая позволит пользователям помечать твиты, которые, по их мнению, содержат ложную или опасную информацию.

Борьба с фейк ньюз, и что с ней не так
«Медуза» публикует статью Леонида Волкова, которую он написал в изоляторе. Его арестовали из-за митинга, прошедшего еще в сентябре 2018 года
14:54, 6 июня 2019
Никогда еще в руках обывателя, потребителя информации, не было сосредоточено такого количества доступных и бесплатных удобных инструментов для проверки качества и надежности поступающей информации; никогда еще пути распространения информации не были столь прозрачными; никогда еще информация не распространялась с таким количеством метаданных, делающих возможными ее верификацию; никогда еще не были общедоступными такие массивы справочной, научной, библиотечной информации.
…Это — новые (хотя и очень мощные) инструменты, и в силу естественных причин далеко не все еще привыкли и научились ими пользоваться. Налицо обычный зазор между появлением технологии и ее освоением. И в распоряжении человечества есть отличный, апробированный тысячелетиями способ преодоления такого зазора; он называется — образование
…Теперь мы много думаем, как сделать так, чтобы в прекрасной России будущего убить всех зайцев сразу: чтобы система образования позволяла молодым людям и знания получать, и к жизни в современном мире и обществе подготовиться.
Так вот, вся история про фейк ньюз — сюда же. Современное общество — информационное, постиндустриальное. Информация — главная ценность. Умение работать с ней — главная компетентность. Инструментов для работы с информацией — великое множество. Общество, которое научит своих школьников тому, как проверять источники, и тому, как работает институт репутации ученых и экспертов, — победит фейк ньюз много быстрее, чем общество, которое будет упорно портить интернет штрафами и цензурными фильтрами. 
Симулятор фейка «Плохие новости» обещает защитить нас от лжи

Полиция Нидерландов использует эту игру для обучения своих офицеров.
21 ФЕВРАЛЯ 2018  АВТОР: АЛЕКСАНДР ГОРЕВ
Как отличить, правдивая перед вами новость или абсолютный фейк, рождённый больным разумом охочего до денег журналиста, который пойдёт на любые ужимки – лишь бы выдать скандальный заголовок?

Теперь у нас есть ответ: онлайн-игра Bad News, созданная группой академиков и журналистов под названием DROG. Это проект был разработан с целью обучения людей тому, как отличать правдивую информацию в новостях от лжи. А также сайт показывает вам, как именно создаётся эта ложь – в Bad News вы играете непосредственно за «плохого парня». …
Рурд Остервунд, основатель DROG, заявил изданию Mashable, что игра создавалась с целью показать самый правильный способ борьбы с фейковым новостями. «Если вы хотите победить дезинформацию, то никогда не пытайтесь её заблокировать» - пишет он. «Вместо этого – высмейте её»….: https://gmbox.ru/materials/34063-simulyator-feyka-plohie-novosti-obeshchaet-zashchitit-nas-ot-lzhi 

Лучи найдут врунов на расстоянии


Создана технология, пригодная для создания бесконтактного детектора лжи
Алексей Петров 03.04.2008, 17:39
Hовая разработка израильских физиков может помочь созданию бесконтактного детектора лжи, способного работать на расстоянии. При этом испытуемый даже не будет догадываться, что его сканируют. Учёным помогли субтерагерцовое излучение и особая форма потовыводящих каналов.
Израильские учёные разработали новую методику удаленного мониторинга кровяного давления, интенсивности пульса и потовыделения человека. Её можно применять для выявления некоторых признаков болезней, а можно и в качестве бесконтактного детектора лжи. Пока что разработки в этой области носят экспериментальный характер, однако уже в скором времени они могут превратиться в коммерчески доступные методики использования терагерцовых колебаний для удаленной диагностики состояния клинических пациентов, оценки физической подготовки спортсменов и выявления лжи.
Ключом к разработке подобных методов оказалась необычная форма человеческих потовыделительных каналов.
С помощью последних технологий получения изображений живых тканей удалось установить, что эти каналы, соединяющее потовые железы с поверхностью кожи, имеют форму, напоминающую штопор для открывания бутылок. Зачем природе понадобилось строить эти протоки в винтообразной форме, пока не ясно. Но это и не самое главное для группы физиков из Иерусалимского университета. Как рассказали Discovery Юрий Фельдман и его коллеги, эта форма живо напомнила им некоторые антенны, используемые инженерами связи для приема электромагнитных сигналов.
Простейшие измерения длины живых «антенн» и количества их витков позволяют оценить частоту, на которой можно наблюдать ответную реакцию тканей. Как оказалось, этот диапазон электромагнитных колебаний лежит в области терагерцовых и субтерагерцовых колебаний, иначе называемых в англоязычной литературе Т-лучами. Эти колебания уже используются в наши дни – например, для диагностики произведений изобразительного искусства или для обнаружения спрятанного в багаже оружия. При этом они составляют всё большую конкуренцию рентгеновскому излучению, будучи схожими по проникающей способности, но при этом существенно менее вредными.
Регистрировать состояние человека можно, подвергая его кожу воздействию терагерцового излучения и регистрируя ответный сигнал. Степень поглощения и отражения терагерцового спектра колебаний сильно зависит от того, заполнены ли «антенны» потовыделительной системы потом, или в данный момент выделения жидкости не происходит.
Изучая сигналы, улавливаемые детектором Т-лучей, ученые могут точно сказать, какая часть человеческого тела потеет больше остальных и насколько.
Причины же выделения пота тем или иным участком поверхности кожи человека бывают различны. Так, употребление острой пищи активизирует потовые железы лица, грудь и спина, как правило, покрываются потом при приеме солнечных ванн.
Различные заболевания и прием некоторых медикаментов могут сказаться на активности потовых желез в иных участках. Кроме того, эти факторы, как правило, затрагивают уровень кровяного давления и частоту пульса. Создание «карты потливости» человеческого тела должно в итоге, по мнению ученых, привести к разработке прибора для диагностики состояния человеческого организма в зависимости от потоотделения.
С помощью своей методики ученые также могут оценивать уровень кровяного давления и частоту пульса, которые в большинстве случаев напрямую связаны со степенью выделения пота.
Такая методика выглядит куда более эффективной по сравнению с современными методами определения давления при помощи надувных давящих манжет. Об определении степени потоотделения и говорить не стоит — сейчас пользуются массивными приборами, подразумевающими прикрепление небольшого электрода к поверхности кожи. Новый метод позволяет осуществлять измерения удаленно и проводить мониторинг в течение продолжительного времени.

Искусственный интеллект создает фальшивое порно с участием знаменитостей

НИКОЛАЙ БЕЛКИН 12.12.2017
Анонимный пользователь интернет-форума Reddit выкладывает в сеть реалистичные порнографические видео с участием знаменитостей, в которых те никогда не снимались. Автор, скрывающийся за ником 'deepfakes', утверждает, что создает их с использованием общедоступных технологий машинного обучения и медиафайлов из интернета.
Например, в одном из роликов актриса Галь Гадот, известная по фильмам "Чудо-женщина" и кинофраншизе "Форсаж", занимается сексом со сводным братом. Неизвестный программист просто обучил нейронную сеть, "скормив" ей сотни фото и видео с участием Гадот, после чего алгоритм заменил лицом Гадот лицо порноактрисы. В других видео "участвуют" актриса Скарлетт Йоханссон, певица Тейлор Свифт и т.п.
Жанру фейковых фото со знаменитостями в онлайн-порнографии столько же лет, сколько первым версиям профессиональных компьютерных фоторедакторов, позволивших с разной степенью убедительности комбинировать изображения тел и лиц. Однако 'deepfakes' выводит его на новый уровень.
Конечно, до располагающих огромными ресурсами голливудских студий, создающих с помощью компьютерной графики целые миры и "воскрешающих" умерших актеров, продукции 'deepfakes' далеко — мимика "Гадот" в ролике временами сбоит, лицо в некоторых ракурсах выглядит неестественно, однако на первый поверхностный взгляд все смотрится довольно убедительно.
 'deepfakes' рассказал в интервью изданию Vice, что разработанное им программное обеспечение использует несколько библиотек для машинного обучения с открытым исходным кодом, таких как Keras, а также продукт Google под названием TensorFlow. Изображения лиц для наложения на порноролики алгоритм берет в поиске по картинкам Google, а также в YouTube.
По словам эксперта в области искусственного интеллекта Алекса Чэмпэндарда, в создании подобных видео сегодня уже нет ничего слишком сложного. Программные инструменты доступны бесплатно, а для рендеринга достаточно нескольких часов с использованием высококлассной видеокарты или пары дней, если полагаться только на ресурсы центрального процессора ПК.
Именно легкостьс которой создается такого рода поддельная порнография, должна пугать — причем не только голливудских актрис, а всехкто достаточно регулярно выкладывает в соцсети фото- и видеоселфи. По данным Google, в сервис Google Photos в 2015-2016 гг было загружено 24 миллиарда сделанных смартфонами автопортретов. Несложно представить, как программист-любитель создает подобное видео с "участием" человека, которому хочет за что-то отомстить, и выкладывает его в сеть. Технология также представляется отличным инструментом для шантажа.
Эксперты говорят, что предотвратить появление общедоступных инструментов для создания поддельных видео методом наложения лиц, скорее всего, невозможно. Кстати, не стоят на месте и технологии синтеза речи — программа Lyrebird умеет копировать любой голос по образцу за минуту. Единственный выход — активно обсуждать проблему, чтобы о возможности такого манипулирования знал каждый, а также создавать инструменты для выявления подделок. В них, кстати, тоже вряд ли удастся обойтись без искусственного интеллекта.

 Новая методика позволит также существенно улучшить работу детекторов лжи.
Современные аппараты этого назначения подразумевают подключение к человеку большого количества датчиков, фиксирующих частоту пульса, изменение давления крови и потоотделение, однако тренированные профессионалы в наши дни умеют без труда обманывать такие детекторы. Выявление лжи с помощью методов, незаметных для испытуемого, несомненно сделает задачу обмана таких терагерцовых детекторов куда более сложной. Впрочем, новый метод вряд ли исключит возможность ложного срабатывания.
Учёных, занимающихся разработкой методики, этот вопрос пока мало интересует. Они продолжают техническое усовершенствование своего оборудования. А уж как оно будет применяться – это второй вопрос. В конце концов, речь идёт не о водородной бомбе. Работа учёных опубликована в последнем номере Physical Review Letters.

Совок в цифре — антиутопия по-русски

24.07.2017
Георгий Бовт о том, как выстраивается новое сословно-кастовое общество

С анонимностью в интернете в этом году в России будет покончено. Официально, по крайней мере. Перед уходом на каникулы Дума приняла закон, обязывающий мессенджеры устанавливать личность пользователей по номеру телефона, — под угрозой блокировки за отказ это сделать. SIM-карты, выданные по ложным паспортным данным, заблокируют. Прокси- и VPN-сервисы и анонимную сеть Tor сразу не запретят, но обяжут ограничивать доступ к запрещенным в России сайтам. Поскольку иностранные владельцы ресурсов, скорее всего, будут саботировать указания Роскомнадзора, то вопрос их блокировки — это вопрос лишь политического решения. Законодательная база уже готова. Как это собираются сделать (без всяких оговорок блокировать все анонимайзеры) в Китае весной следующего года.
В полной мере наш закон заработает в ноябре, ну а весной, видимо, мы Китай догоним и перегоним, приурочив это достижение к нашим президентским выборам. Какие-то возможности обхода блокировок, конечно, все равно останутся. Для продвинутых пользователей. Но как показывает практика, современный человек, дитя эпохи легкого всеобщего потребления, ленив в поиске альтернативной информации и довольствуется той (даже если это низкопробная пропагандистская жвачка), которую легче потреблять и которая комфортно вписывается в уже привычную картину мира. Так что новой революции по этому поводу не будет.
Любопытна оговорка в принятом законе: государственным организациям и даже частным фирмам будет оставлена некая возможность пользоваться VPN, если доступ к соответствующей информации будут гарантированно иметь только их сотрудники, без выхода вовне. И это станет лишь очередным, но не первым шагом к выстраиванию сословно-кастового общества на принципиально новой технологической основе.
Теперь слегка пофантазируем.
Возможно, уже в недалеком будущем у каждой «касты» будет свой, отличный от других и обособленный информационный статус. Разная степень доступа к той или иной информации и, соответственно, разная степень открытости по отношению к другим «кастам».
Информационно-цифровой профиль будет привязан к определенному положению в общественной иерархии, обозначать разную степень доступа к материальным и иным благам. Возможно, разную степень дозволенности в поведении. В какой-то мере будет воссоздана советская система с ее распределителями, спецзаказами, спецхранами для допущенных к определенной информации лиц, для которых были даже отдельные материалы ТАСС (так называемый «красный ТАСС» — с красной полосой, доступный только номенклатуре определенного уровня).
То есть мигалками на дорогах дело не ограничится. Уже сейчас высшие чиновные лица и аффилированные с ними представители «неокупеческого» сословия ограждены от плебса не только высокими заборами и шлагбаумами своих элитных поселков-бантустанов. Совсем недавно был принят закон, позволяющий засекречивать доступ к информации об имуществе высшей номенклатуры. Это станет «противоправным контентом». Данное понятие и так сегодня трактуется правоохранителями широко, а будет трактоваться еще шире.
Уже, полагаю, скоро не в меру любопытных блогеров, обнародовавших сведения об элитной недвижимости или «показном потреблении» представителей правящей номенклатуры, будут приговаривать к реальным срокам заключения. И случаев, подобных недавно нашумевшему и возмутившему публику рассказу о нескромной свадьбе краснодарской судьи Хахалевой, будет утекать все меньше.
Высшая номенклатура со временем окажется за большой и мощной Firewall.
Тот же закон «о забвении в интернете», который пока работает не очень споро, направлен в нашей стране прежде всего на ретуширование биографии или сокрытие нежелательных фактов из жизни людей из власти. Чтобы обывательские мозги не встали в раскоряку оттого, что, мол, как же так: известная депутатка Яровая в свое время училась в Школе политических исследований Лены Немировской, этом «гнезде либерализма», впоследствии объявленной «иностранным агентом», — и надо же, такая идейная эволюция. Или что там говорила прокурор Крыма Наталья Поклонская, когда оный был в составе Украины? Работа такого закона, полагаю, со временем наладится, люди при власти станут безупречными в их биографии. Это лишь вопрос повышения «законопослушности» разных «гуглов». Ну или их блокировки.
Для чиновничества, к примеру, уже сооружают свой отдельный мессенджер – чтоб враг не подслушал. Его, правда, обещают сделать открытым для всякой публики. Однако логика реставрации «совка в цифре» говорит, что там непременно будет свой «красный ТАСС» — свои информационные сервисы и возможности, «VIP-информресурсы», которые будут недоступны простым смертным. Полагаю, если дело пойдет, то для номенклатуры как главной опоры режима будет создаваться и своя отдельная информационная картина происходящего в мире и стране. Индивидуализация новостного контента — технически давно решенная задача.
И не составит большого труда сделать так, чтобы простые обыватели и правящий класс со своей идейно-информационной обслугой окончательно поселились в разных информационных пространствах и с друг другом пересекались как можно меньше. Ради стабильности и спокойствия.
Тут, правда, есть свои издержки: многим представителям правящего класса — для начала силовикам, а дальше как пойдет — уже запретили шастать по заграницам. Чтоб не насмотрелись там чего-нибудь. Логика фильтрации «вредной информации» должна получить свое логическое продолжение и в сети.
При этом по отношению к «плебсу» отгораживающееся от него правящее сословие требует все большей информационной прозрачности. Простые люди не должны гулять по «неправильным» сайтам и потреблять «противоправный контент». По аналогии с тем, как раньше глушили «вражеские голоса».
Механизм обратной связи с теми, кто номинально является «избранными народными представителями», давно нарушен, последние давно живут в своей реальности. И даже в ходе формальных выборов вся та повестка, все те законы, в том числе об ограничении информации и интернета, что напринимала ушедшая отдыхать Дума, ни минуту не обсуждались в ходе так называемой предвыборной кампании, они не фигурировали ни в одной из предвыборных платформ (вышеупомянутый закон о запрете анонимности в интернете был принят по инициативе трех думских фракций).
Простолюдины, разумеется, не должны пользоваться анонимайзерами. Вся их переписка, все телефонные разговоры, история навигации по отфильтрованной сети должны быть открыты, как на ладони, компетентным и не очень органам.
При том что на публичном уровне даже не ставится вопрос о том, как общество могло бы контролировать, не говоря уже о том, чтобы ограничивать фантазии этих органов в данной сфере.
Проще говоря, ваши паспортные данные переписывают всякие охранники порой по несколько раз в день, но вы не можете даже знать, где они потом окажутся и как будут использованы. Мы, по сути, ничего не знаем о том, как работает «белый» и «черный» рынки персональных данных в нашей стране.
Мы не знаем, что уже умеют наши спецслужбы (поскольку ни один «русский Сноуден» на сей счет не раскололся), ни то, как собранная о нас информация используется в чисто коммерческих целях. Пока вам, к примеру, отказывают в ипотечном кредите на основе доморощенной скоринговой программы конкретного банка. Но, возможно, уже скоро ваша кредитная (не)благонадежность будет коррелироваться с вашим общественно-политическим поведением, участием в общественных организациях, с покупками, с лайками в соцсетях и даже тем, как учатся в школе ваши дети, не курят ли они траву по подъездам. В прошлом году, по данным компании InfoWatch, у российских компаний и госорганов украли (а может, продали на сторону сами сотрудники) 128 млн персональных записей. Как они могут быть использованы?
На наше счастье (но оно временно и скоротечно), остается надеяться, что пока технологии обработки больших массивов метаданных еще не поставлены на желаемую «органами» высоту. Но это дело поправимое, причем относительно быстро.
Как говорили в советское время, «разоружись перед партией!».
При этом в нашей стране, лишенной исторических традиций индивидуализма, граждане в массе своей не очень дорожат тем, что называется не вполне переводимым на русский язык термином privacy. За анонимность в интернете — лишь 26% россиян (весенний опрос Левада-центра). Хотя почти половина (46%) наших сограждан знают о возможности третьих лиц получить доступ к их персональным данным через соцсети или иными способами (пятая часть, святая простота, впервые услышали об этом от самих проводивших опрос социологов), 49% это никак не смущает. Всего 19% россиян защищают персональную информацию паролями. Не размещать о себе конфиденциальную информацию в интернете предпочитают 15% респондентов. Как опять же говорили в советское время, «честному человеку нечего скрывать от народа».
Осознание того, что использование персональных данных или, что вернее, метаданных «может быть использовано против вас» — для создания вашего «оцифрованного профиля», еще не проникло на уровень массового сознания. Впрочем, это не является уникальной чертой нашей страны. Вряд ли такое осознание проникло на массовый уровень даже в самых развитых странах, столь стремительно развиваются технологии обработки массивов информации. Которая затем может быть использована как в чисто маркетинговых и рекламных целях (для таргетирования конкретного покупателя или групп), так и в целях манипуляции общественным сознанием, для тоталитарного контроля и выявления неблагонадежных, с тем чтобы заблокировать им продвижение по карьерной лестнице, поступление на госслужбу и вообще на общественно значимые должности и т.д.
И хотя, например, в Америке похищение персональных данных традиционно уже не первый год входит в топ-10 обывательских страхов, даже там вряд ли люди глубоко осознают, сколь далеко все зашло. В этом смысле упорная борьба наших властей за непременную обработку персональных данных россиян на родной земле отчасти бессмысленна, отчасти направлена лишь на облегчение работы наших спецслужб. В любом случае ее следует честно переименовать в борьбу за обработку персональных данных россиян В ТОМ ЧИСЛЕ на родной земле.
Уже сегодня только по лайкам в соцсетях (скажем, в Facebook) можно определить (не зная имени конкретного человека) национальность человека (на 95%), пол (на 93%), политические взгляды (на 85%), пристрастие к алкоголю и табаку (на 70–73%), состоит ли он в отношениях или одинок (на 67%) и даже то, находятся ли родителя этого человека в разводе (на 60%).
И это только одно направление анализа/профилирования. Тот же Facebook анализирует свою аудиторию по 52 тысячам показателей. Одна из крупнейших страховых компаний Aviva определяет индивидуальный риск заболеть диабетом, раком или гипертонией на основе анализа данных покупательского поведения (это нас пока не касается, в силу неразвитости рынка медицинского страхования в принципе). Конвертируя знания в повышенные страховые взносы.
Одна из крупнейших баз данных покупательского поведения Acxiom ведет учет поведенческих типов более 700 млн потребителей в Европе и Америке по 3 тысячам параметров. А корпорация Oracle собрала базу данных на 2 млрд покупательских профилей по более 30 тысячам показателей.
Остается лишь гадать, на каком уровне находится умение соответствующих органов собирать и анализировать наши метаданные. И уповать, как ни парадоксально, на родную спасительную коррупцию. Если на нас будут «лепить профили» и встраивать в «цифровую сословную иерархию», то наверняка найдутся лазейки, чтобы, подкупив кого надо или договорившись с кем надо, поправить себе цифровую карму или выкупить место в более привилегированном цифровом сословии.
Впрочем, возможно, и наши спецслужбы уже скоро достигнут такого высочайшего мастерства, что ты еще даже не успел подумать плохо о нашем президенте, а тебе уже отключили газ, воду, электричество, замуровали канализацию, аннулировали водительские права, отрубили интернет и вызвали в налоговую звонком на мобильный телефон, симку для которого ты покупал вроде как в переходе на паспорт прабабушки своего давно умершего соседа.

«Фейсбук» им в помощь

02.10.2017
Георгий Бовт о том, почему спецслужбам невыгодно «убивать» соцсети

.... использование возможностей всех соцсетей для мониторинга политических (называемых у нас террористическими или экстремистскими) угроз в целях более эффективного их предотвращения. А также для манипуляции общественным сознанием. Каковую задачу, теоретически, на мой взгляд, легче выполнить, имея под рукой не только полностью подконтрольные ресурсы.
На примере СССР этот урок вроде должны были выучить. Но вот выучили ли те, кто пишет доктрины «информационной безопасности» для Совбеза России? Во всяком случае в последней (прошлогоднего издания) доктрине почти 100% текста посвящено именно угрозам и их предотвращению, но не возможностям интернета в части развития страны в целом, ее науки и технологий, а также экономики.
Предупреждение «Фейсбуку» со стороны РКН подоспело на фоне нового витка скандала в США дела о «русском вмешательстве в выборы в США».
Расследователи накопали, как якобы некие русские фирмы, включая известную «фабрику троллей» под Питером, закупили через ФБ социальной рекламы не менее чем на 100 тысяч долларов с целью «сеять рознь и ненависть в американском обществе».
Технология начала отрабатываться еще до президентской предвыборной кампании и вне связи с Трампом – во время расовых беспорядков в городах Балтимор и Фергюсон в 2014-2015 годах. Якобы для этого «коварные русские» завели десятки фейковых аккаунтов и использовали компанию-стартап Geofeedia для точного географического таргетирования рекламы («Фейсбук» сейчас заблокировал ей доступ).
Если даже часть этих обвинения – правда, притом что сами же расследователи признают, что никакого нарушения законов США в закупке социальной рекламы (без поддержки конкретных политиков со стороны иностранного государства) нет, то речь идет «всего лишь» об использовании Москвой той самой «мягкой силы», которую в свое время «придумали» (Джозеф Най — автор термина) в Америке.
Но тогда где, спрашивается, логика в том, чтобы отказываться (предположительно – тем же спецслужбам) от методики, отработанной на территории «вероятного противника», применительно к угрозам режиму внутри собственной страны? Тем более, что пока и отечественные законодатели, да и безразличное по большей части к вопросам privacy российское общество дают нашим «органам» практически полную и бесконтрольную свободу рук на данном поприще.
По пути использования соцсетей для мониторинга социальных угроз давно идут правоохранители в самих США. Другое дело, что поскольку сервера большинства популярных интернет-ресурсов находятся в Америке, то их системе электронной слежки Prism (Programfor Robotics, Intelligence Sensingand Mechatronics) работать относительно проще, чем отечественной СОРМ (Система оперативно-розыскных мероприятий, разработанной ФСБ, устройствами СОРМ оснащен каждый российский провайдер и сотовый оператор), имеющей проблемы, насколько известно, с закрытыми аккаунтами в ФБ, с почтовой перепиской Gmail и т.д.
Собственно, вся борьба за «суверенизацию» персональных данных россиян и защиту их от злокозненных янки и ЦРУ – она про технические возможности слежки за ними внутри страны.
Однако и открытых данных в соцсетях предостаточно – наряду с метаданными – для толкового использования как различными госструктурами (в том числе далекими от спецслужб), так и коммерческими. Это огромный бизнес. На анализе, в том числе маркетинговом, во многом уже построена современная экономика, а также госуправление.
Ослеплять себя сознательно на один глаз, блокируя популярный интернет-ресурс — недальновидно экономически и неэффективно с точки зрения противодействия общественным угрозам.
Кстати, по некоторым оценкам, система ограничения свободы интернета в том же Китае уже обходится экономике КНР в потерю от 1 до 3% роста ВВП в год.
Полиция в тех же США во время тех же расовых беспорядков использовала данные, собранные мониторинговыми фирмами вроде Geofeedia. Она, в частности, помогала отслеживать аккаунты отдельных «сильно резвых» активистов организации чернокожих Black Lives Matters (российских «троллей», заказавших рекламу в ФБ, как раз обвиняют в том, что они популяризировали деятельность этой организации). Есть и другие фирмы: Snap Trends, Media Sonar, X1 Social Discovery.
Помощь правоохранителям могут оказать и такие ресурсы, как Statigram или Instamap, которые способны анализировать «тенденции» в части видео- или фоторяда с привязкой к местности, включая изображения конкретных людей с их опознанием. Echosec может помочь как полиции, так и маркетологам отслеживать, собирать и обрабатывать посты в соцсетях – тоже с привязкой к местности.
Таким образом, по аналогии с ВПК, речь идет о постоянной «конверсии», работающей в обоих направлениях – и «на безопасность», и на мирную «цифровую экономику». Причем большая свобода в Интернете, минимальное число «тупых»запретов и блокировок как раз создает больше возможностей для всех — и для инноваторов-предпринимателей, и для правоохранителей. Хотя вряд ли данная мысль найдет много сторонников среди российских силовиков, привыкших комфортно действовать методами запретов и ограничений.
Кстати, любопытно, что в такой стране, как Узбекистан с весьма жестким политическом режимом спецслужбы не пошли на блокировку того же ФБ, а активно работают в нем, создавая фальшивые аккаунты-приманки для оппозиционеров, имитирующих реальные оппозиционные режиму ресурсы. Не без восточного коварства, конечно, метод.
Современные технологии дают возможности, анализируя только «лайки» в ФБ, оценить политические взгляды пользователя с точностью до 85%, пристрастие к алкоголю, наркотикам или табаку на 60-75%.
Даже использование VPN-сервисов – не панацея от слежки. Это все равно выдает вовне определенное количество метаданных о пользователе, которые могут быть увязаны с другим его действиями.
Только на основе анализа обезличенных метаданных, без всяких «пакетов Яровых», еще несколько лет назад технически было возможно установить личность пользователя с точностью выше 95%. Просто надо уметь работать, а не ждать, пока дядя Цукерберг из ФБ принесет на блюдечке готовое досье на диссидента. Но такое умение лучше и эффективнее формируется в открытом обществе и в открытой экономике, а не в парализованной запретами и ограничениями, часто бессмысленными.
Ведущие компании по обработке цифровых данных, полезных для маркетологов, финансистов (на предмет кредитоспособности клиента), страховщиков, не говоря о спецслужбах, «просвечивают» среднего американца примерное по 70 показателям.
Количество фирм, анализирующих в интересах разных отраслей экономики интернет и соцсети, множится в развитых странах с огромной скоростью. Это многомиллиардный бизнес. Он не может развиваться только в рамках спецслужб.
При формально открытом интернете и фактически полном отсутствии блокировок в привычном нам виде, в США уже во многом покончено с анонимностью в сети в тех случаях, когда это действительно касается вопросов общественной безопасности, а не блокировки порносайта или маргиналов от оппозиции. И даже не запретами VPN-сервисов или Tor, каковым путем собираются идти почти синхронно у нас (с ноября) и в Китае.
При этом недавно правоохранители США получили поддержку Верховного суда, признавшего конституционным «правило 41» федерального уголовно-процессуального кодекса. ФБР получило право, с ордером на обыск от суда, обыскивать, взламывать с помощью хакерских средств и изымать компьютеры граждан США, использующих VPN или Tor, если это используется для нарушения другого закона.
Ключевой вопрос – в масштабах использования такого права и независимости судов, чтобы не отвечать «да» на каждый запрос следователей.
Притом, что у нас уже под десяток силовых ведомств получили право на перехват и прослушку коммуникации россиян,(ежегодное число таких случаев, по данным Верховного суда России, исчисляется сотнями тысяч и постоянно растет), анализом контента, в том числе, социальных сетей занимаются и отечественные мониторинговые компании.
Например, такие как «Аналитические бизнес решения». Ее «семантический архив», как утверждает один из авторов нашумевшей книги «Битва за Рунет» Андрей Солдатов (о методах электронной слежки за россиянами, книга сначала вышла на английском под названием «TheRedWeb») является не единственным продуктом, используемым спецслужбами для мониторинга соцсетей.
Как указано на сайте вышеупомянутой компании, Semantic Archive Platform позволяет «проводить комплексную проверку контрагентов, партнеров, сотрудников в разных странах мира, вести конкурентную и бизнес-разведку, искать любую информацию о физических и юридических лицах, формировать досье, проводить глубокий анализ связей собственников компаний, исследовать связи крупных холдингов и корпораций и пр.; вести мониторинг объектов интереса в СМИ, соцсетях, блогах на различных языках мира… множество других возможностей».
Наверное, кое-кому, прочитав про то, какими темпами развивается электронная слежка, захочется самоудалиться из этого «дивного нового мира». Но, во-первых, не выйдет, слишком все далеко зашло. Во-вторых, Большой Брат сам решит, какие вам аккаунты оставить, а какие удалить, заблокировав. В-третьих, помните, что все что вы напишете, скажете или нарисуете на оставшихся ресурсах, может быть использовано против вас.

Facebook оповестит пользователей о том, следили ли они за «российской рекламой»
22.11.2017
Facebook собирается создать специальную страницу, на которой пользователи могут проверить, следили ли они за «российской рекламой» во время президентской кампании в США. Об этом говорится на сайте компании.
«Вскоре мы создадим страницу, которая позволит пользователям узнать, за какими аккаунтами «агентства по изучению интернета» (оно якобы «вмешивалось» в процесс американских выборов — «Газета.Ru») в Facebook или Instagram они, возможно, следили в период между январем 2015 года и августом 2017 года», — следует из сообщения.
Как уточняется, страница появится до конца нынешнего года.
Ранее пользователям Facebook запретили удалять старые публикации.: https://www.gazeta.ru/tech/news/2017/11/22/n_10849400.shtml

11 июля 2018
Российские информатики создали программу, которая разоблачает фейковые изображения

Учёные Самарского университета разработали программный продукт, который за несколько секунд позволяет проверить достоверность любого изображения. Это касается как снимков, полученных с космических спутников, так и цифровых документов или фотографий для глянца…..
"Мы анализируем, какого рода атаки применяются для изменения не столько цвета и света в изображении, сколько для изменения содержания сцены. А это значит, что наша программа помогает разоблачать ложные снимки, документы, а в конечном счёте — фейковые события", — заключают исследователи.

WikiLeaks опубликовал схему слежки за россиянами

Сайт WikiLeaks опубликовал серию документов о российской компании, которая якобы поставляет оборудование для наблюдения за российскими пользователями. Ссылка на архив опубликована в Twitter.
В публикациях речь идет о петербургской компании Peter-Service, основанной в 1992 году. По данным WikiLeaks, она разрабатывает софт для телекоммуникационных компаний и может быть связана с российскими спецслужбами.
Документы в архиве охватывают период с 2007 по 2015 год. В опубликованных материалах значится, что, помимо биллинга, компания занимается наблюдением и контролем за абонентами мобильных операторов. В частности, в документах речь идет о записях разговоров, сообщениях и идентификаторах устройств (IMEI, MAC-адреса).
В материалах не упоминается, о каких конкретно спецслужбах идет речь. Также из публикации следует, что компания добровольно сотрудничала с государственными ведомствами на взаимовыгодных условиях.
В самой компании Peter-Service заявили «Ленте.ру», что действуют «в строгом соответствии с законодательством стран, в которых присутствуют наши клиенты». «Неприкосновенность частной жизни — один из постулатов нашей работы. Сотрудники компании не имеют доступа к абонентским данным, тем более компания никогда не передавала информацию об абонентах наших клиентов спецслужбам какой-либо страны», — заявил представитель Peter-Service.
WikiLeaks уточнил, что это только первая часть цикла публикаций о России в рамках проекта Spy Files Russia («Шпионские документы России»): https://lenta.ru/news/2017/09/19/fromrussia/ 

Как государство манипулирует инфополем

Цели и задачи правящей бюрократии были рассмотрены мной в предыдущих статьях, поэтому здесь на них подробно останавливаться не буду. Стоит отметить лишь, что необходимым и самым важным условием их реализации является не просто поддержка большинства, а отсутствии активного неприятия со стороны численно значимых групп населения. Именно эту задачу решает манипулирование информационным полем (пиарократии). Как формируется поддержка большинства, было хорошо заметно на примере многих событий. В основе этого лежит такое свойство большинства людей, как боязнь оказаться в меньшинстве. Однако, как правило, тут упускается один очень важный момент. Люди склонны примыкать не к большинству вообще, а в группе, с которой они себя ассоциируют. Если правящая бюрократия будет концентрироваться исключительно на поддержке большинства, рано или поздно она рискует нарваться на активное противодействие группы людей, пусть и не составляющей большинство, но численно достаточно значимой. Поэтому, постоянно говорить только о мейнстримовской пропаганде - большая ошибка, стоит рассматривать проблему в комплексе, а именно о манипулировании всеми сегментами информационного поля.
Для наглядности рассмотрим пример из недавней истории. Аннексия Крыма и война в Украине, по крайней мере тактически, понадобились власти, чтобы списать экономический кризис на "давление Запада". Общество тогда разделилось на две практически непересекающихся части - сторонников и противников данного мероприятия. Первым внушалось, что "проклятый Запад хочет нас уничтожить, но вы должны сплотиться, выстоять и тд". Вторым - "из-за сумасбродства власти Запад наложил на нас санкции, рубль упал, цены выросли и тд". Вроде эти точки зрения кажутся противоположными, и между их носителями развернулась нешуточная информационная война, но они имеют одно очень важное пересечение - "кризис случился из-за санкций". А это именно то, что власти и требовалось.
Приведённый выше пример достаточно простой, такое случается крайне редко. По большинству вопросов дело обстоит сложнее. Дробление происходит на множество групп, те, в свою очередь разделяются на множество подгрупп и так далее. В каждой из них, как правило, существует свой "гуру", они могут иметь разное отношение к действующей власти и даже менять его в процессе своего существования, разделяться и сливаться, в зависимости от текущих задач. Но общее всегда будет одно - обоснование необходимости каких-либо функций государства и наделения его для их выполнения правом на агрессивное насилие. Именно из таких "большинств" создаётся глобальное этатистское большинство.
Кроме того, такой способ структурирования инфополя сильно препятствует объединению людей с потенциально либертарианскими взглядами. Это только кажется, что их так мало. Абсолютное большинство людей не желает, чтобы лично к ним применялось агрессивное насилие. Никто не хочет, чтобы лично им запрещали делать то, что они любят, или лично у них отбирали часть заработанного. Более того, если спросить у людей, что им важнее, отсутствие запрета делать то, что им нравится, или запрет делать то, что им не нравится, большинство выберет первое. Это вполне могло бы стать базой для их объединения против агрессивного насилия со стороны правящей бюрократии. А при нынешнем положении вещей не существует выбора между свободой и несвободой, где, возможно, большинство бы выбрало первое. Благодаря такому хитрому структурированию, в информационном поле идёт борьба различных вариантов несвободы. И человеку, заитересовавшемуся политикой и экономикой, приходится выбирать один из них, примыкая к этатистскому большинству.
Возникает законный вопрос, как отличить факты от манипуляций. Метод только один - использовать логическое мышление. Никакие ресурсы, "разоблачающие ложь", вам не помогут. Разоблачат одну, внушат другую. Только глубокое исследование каждой причинно-следственной связи сможет дать ответ на этот вопрос.
В следующих статьях будут подробно проанализированы различые аспекты манипулирования информационным полем: http://right-dexter.com/analytika/ryuhizm/kak-gosudarstvo-manipuliruet-infopolem/#.WdRXwVu0PIU 

Pravý prostor (Чехия): обзор самой вопиющей российской лжи
03.12.2018 Томаш Флашка (Tomáš Flaška)
По поводу недавней российской провокации в Керченском проливе снова заговорили о бедной России, которую обижают со всех сторон. Приведу несколько фактов, которые нужно всегда помнить...:

Pew Research (США): Россияне считают, что их правительство не пыталось повлиять на президентские выборы США
22.08.2018 Джейкоб Поуштер (Jacob Poushter)
По поводу обвинений в адрес России в том, что она использовало социальные сети и прочие тактические приемы, чтобы вмешаться в президентские выборы, проходившие в США в 2016 году, примерно семь из десяти россиян считают, что их правительство не пыталось повлиять на эти выборы. Лишь 15% говорят, что оно действительно старалось вмешаться, свидетельствует новый опрос аналитического центра «Пью Рисерч» (Pew Research).
В более широком контексте этой темы, отвечая на вопрос, пытается ли их страна влиять на внутренние дела других стран, русские разделились практически поровну: 45% говорят «да», 46% — «нет». С этим резко контрастирует то, что подавляющее большинство россиян (85%) полагает, что во внутренние дела других стран вмешивается правительство США….:

Ассанж: Россия осознанно троллит США

Основатель сайта WikiLeaks Джулиан Ассанж считает, что постоянный троллинг Россией властей США является намеренной политикой, и наблюдательный полет над штаб-квартирой ЦРУ в Лэнгли по договору "Открытое небо" был частью этой политики.
Как передает РИА Новости, об этом Ассанж написал в Twitter, подчеркнув, что частью троллинга являются попытки России показать, что она стоит за многими событиями, которые раздражают истеблишмент США.
Он отметил разницу между насмешками и проявлениями силы. По его мнению, троллинг нацелен на то, чтобы провоцировать реакции, а не на сдерживание. Тогда как, по словам Ассанжа, западные страны более заинтересованы в том, чтобы раскручивать угрозу со стороны РФ для того, чтобы повысить собственную значимость и пополнить свои бюджеты.
В качестве примера основатель сайта WikiLeaks привел окружение канцлера Германии Ангелы Меркель, которое перед выборами заинтересовано в росте популярности мнений об угрозе со стороны Москвы. А вот демократы США, по мнению Ассанжа, раскручивают данную "угрозу", чтобы оправдаться за свое поражение на президентских выборах в 2016 году:  https://www.vesti.ru/doc.html?id=2919644

Представлен список обязательных к передаче в ФСБ данных интернет-пользователей

Минкомсвязи разработало и представило на общественное обсуждение проект приказа, в котором указывается, какие данные интернет-сервисы должны передавать в ФСБ в рамках проведения оперативно-разыскных мероприятий (СОРМ). Документ размещен на портале проектов нормативных актов.
Приказ описывает требования к программно-техническим средствам и оборудованию, которое должны будут установить «организаторы распространения информации» (ОРИ), вошедшие в специальный реестр. В этом списке, к примеру, значатся «ВКонтакте», «Одноклассники», «Яндекс», Rambler, Mail.ru, Snapchat, Telegram и другие.
В свою очередь оборудование СОРМ должно собирать следующую информацию из реестра ОРИ: идентификатор пользователя, дату и время регистрации, фамилию, имя и отчество, псевдоним, дату рождения, IP-адрес, адрес проживания, номер телефона, данные паспорта, список родственников, пересланные сообщения, передаваемые файлы, записи аудио- и видеозвонковhttps://lenta.ru/news/2017/08/11/fsb_personaldata/ 

Google News исключил из поисковика новости порталов, связанных с «кремлевским поваром» Пригожиным

ОБЩЕСТВО 02 ноября 2017
Сервис Google News больше не выдает новости Федерального агентства новостей (ФАН), которое, как выяснило РБК, связано с «фабрикой троллей», из поисковика также удален архив всех новостных заметок. Об этом сообщается на сайте ФАН.
В ФАН действия сервиса назвали «актом политической цензуры, которая выгодна правительству США», а также добавили, что видят в этом «ограничение распространения информации о борьбе с международным терроризмом».
Представители новостного агентства намерены  пожаловаться в суд, антимонопольную службу и «другие контролирующие органы.
В свою очередь, «Ведомости» обнаружили, что Google News также удалил другие издания, которые упоминало в своем расследовании РБК. Речь идет о ресурсах «Инфореактор», «Экономика сегодня», «Народные новости», «Политика сегодня», «Нью информ», «Политэксперт».
ЧИТАЙТЕ ТАКЖЕ

Напомним, РБК в марте заявило, что обнаружило целый медиахолдингвероятным инвестором которого являются структуры бизнесмена Евгения Пригожина. Самым крупным проектом внутри этого холдинга является, по утверждению РБК, ФАН.
РБК сообщало, что ФАН и еще несколько СМИ холдинга появились в 2014 году и изначально работали в доме №55 по улице Савушкина в Санкт-Петербурге. По этому адресу размещается «Агентство интернет-исследований» (известное как «фабрика троллей»).
Директор ФАН Евгений Зубарев в беседе с РБК отрицал связь ФАН с «Агентством интернет-исследований». Такое «соседство» в первый год работы он объяснил удобством и низкой стоимостью аренды помещения.
ЧИТАЙТЕ ТАКЖЕ

В США «фабрику троллей» не раз упоминали в связи с возможным вмешательством России в американские выборы президента. В конце октября Facebook, Twitter и Google заявили, что «Агентство интернет-исследований» разрабатывало контент для политической рекламы.
РБК сообщило, что «фабрика троллей» потратила на обеспечение работы в США около 2,3 млн долларовпри этом большая часть денег (около 2 млн) ушла на зарплаты 90 сотрудникам
Впервые об «Агентстве интернет-исследований» рассказала «Новая газета». Компания нанимала людей для распространения постов и комментариев в соцсетях и СМИ, формируя определенное общественное мнение. «Фабрику троллей» связывают со структурами Евгения Пригожина, известного как «повар Путина».
ЧИТАЙТЕ ТАКЖЕ

Фамилию Пригожина называют и в связи с другими историями — например, прослушкой делегации президента США во время его официального визита в Москву или — финансировании проекта по возвращению россиян, уехавших жить за рубеж, обратно в Россию.
Миллиардер Пригожин возглавляет корпорацию «Конкорд», которая обеспечивает продовольствием правительственные структуры и спецмероприятия для первых лиц государства.: https://www.novayagazeta.ru/news/2017/11/02/136653-google-news-isklyuchil-iz-poiskovika-novosti-svyazannogo-s-fabrikoy-trolley-agentstva?utm_source=push

Короли фейка

05.12.2017 Юлия Меламед
….О чем собственно речь? Facebook, Twitter (подводит итог Bloomberg) утверждают, что русские «фабрики троллей» — это около полумиллиона фейковых аккаунтов и страниц, которые уже два года занимаются «поляризацией общественного мнения», «распространяют дезинформацию и усиливают раздор в обществе» по широкому кругу важных вопросов, что они достигли ушей уже 126 миллионов человек и это свидетельствует о невиданном масштабе вмешательства в политические процессы в США и об «экзистенциальном кризисе» социальных сетей.
Есть в этом фундаментальная проблемаПравде не верят. Фейку верят. Правде сложнее добраться до сердец. Как говорят драматурги: есть правда, а есть правдоподобие. И всегда предпочитают второе. Потому что фейк сконструирован по законам человеческого восприятия.
Так было всегда. Люди всегда падки на фейк, на имитацию
А мы со своим Сталиным не разобрались, закрыли на это глаза, знать ничего не хотим, что-то мямлим невнятное и глубоко порочное о «всеобщем примирении» палачей с жертвами. И потому, дескать, всегда и вечно наступаем и будем наступать на те же грабли.
Действительно, даже после того, как в нашей стране реабилитировали жертв — палачи остались респектабельными людьми. Бывшие прокуроры, члены «троек», подписанты смертных приговоров оставались на положении уважаемых людей, писали воспоминания, посещали торжественные линейки детишек в школе. Берия – скорее, исключение, но, будем честны, это была не борьба за справедливость, а борьба за власть. То ли дело, дескать, в Германии...

Мы не в состоянии сегодня отличить то, что имеет ценность, от того, что не имеет ценности. Вместо искусства — рыночный успех. Вместо политики — число лайков. Спохватились! Тролли у них на политику влияют!...: https://www.gazeta.ru/comments/column/melamed/11031416.shtml

«Русские тролли» ползут на свет

Twitter: почти 700 тыс. американцев пострадали от русских ботов

В свежем январском отчете Twitter неожиданно увеличил количество аккаунтов, связанных с «русскими троллями», — теперь вероятное вмешательство России в президентские выборы в США выглядит еще более масштабным. Между тем, появились данные о том, что «боты Кремля» продолжают вести свою активность и продолжать влиять на американскую политику.
Компания Twitter решила внести коррективы в статистические данные, предоставленные Конгрессу США по «российскому делу» — о возможном вмешательстве Кремля в президентские выборы в Америке. Если в сентябре 2017 года социальная сеть заявляла о 201 аккаунте, связанном с «русскими троллями», то к концу октября это количество увеличилось до 2752 профилей.
После критики со стороны конгрессменов об «неудовлетворительных» результатах внутреннего расследования цифры были еще раз пересчитаны.
Теперь Twitter заявляет о 3814 аккаунтах, которые якобы ведет организация Internet Research Agency, которую также называют «фабрикой троллей».
При этом с публикациями, включающими в себя элементы пропаганды, столкнулись в общей сложности 677 тысамериканских пользователей твиттера.
Эффективность выросла на 60%
В своем обновленном отчете Twitter также заявила о 50 тыс. бот-аккаунтов, так или иначе связанных с правительством России, которые опубликовали свыше миллиона твитов за десять недель до результатов президентских выборов.«Такая активность представляет собой вызов демократическим обществам во всем мире», — сообщило руководство социальной сети.
Twitter пообещала направить электронные письма с предупреждением почти 700 тыс. граждан США, которые ретвитнули или лайкнули публикацию, сделанную с подозрительных аккаунтов, которые могут иметь отношение к деятельности «русских троллей». Команда платформы сообщила о том, что уже заблокировала эти профили, так что сомнительный контент уже исчез с просторов твиттера.
В целом платформа похвасталась достигнутыми результатами в борьбе с недобросовестными пользователями — по данным компании,
в декабре 2017 года ей удалось вычислять по 6,4 млн подозрительных аккаунтов в неделю, что на 60% больше, чем в октябре того же года.
В качестве доказательства существования пропагандистских аккаунтов, Twitter поделилась несколькими примерами публикаций, за которыми якобы стоят «русские тролли». В одной из них присутствует фото мужчины в футболке с надписью: «Обама называл меня занудой. Хиллари [Клинтон] называла меня жалким. Террористы называли меня неверным. Трамп зовет меня американцем».
На Twitter, Facebook и Google обрушилась волна критики за провал в противостоянии пропаганде, буквально наводнившей социальные сети в период избирательной кампании 2016 года. Спецслужбы США ведут расследование, чтобы доказать вмешательство Кремля в исход выборов посредством популярных медиа-платформ с целью «продвинуть» Дональда Трампа и очернить его конкурента Хиллари Клинтон.
В ноябре 20717 года техкомпании предстали перед Конгрессом с докладами, в которых раскрыли некоторые цифры касательно вероятного российского вмешательства в социальных сетях. Впоследствии эти цифры были увеличены под давлением со стороны конгрессменов, расследованию которых пока явно не хватает существенных доказательств вины Кремля.
Россия в свою очередь категорически не согласна с позицией Конгресса и опровергает любую связь Кремля с выборами в США.
«Мы можем лишь выразить сожаление в связи с продолжающейся кампанией и лишний раз напомнить, что до сих пор все эти опасения, все обвинения нашей страны во вмешательстве не имеют под собой никаких оснований и являются абсолютно голословными», — заявил пресс-секретарь российского президента Дмитрий Песков, добавив, что это расследование не только губит двусторонние отношения, но и вредит самим Соединенным Штатам, так как превращается в «навязчивую идею».
Выборы уехали, а боты остались
Тем временем, несмотря на успехи, описанные в докладе Twitter, издание The Washington Post указывает на некоторые признаки того, что активность российских ботов все еще продолжается.
Куратором расследования о вмешательстве России является бывший директор ФБР, а ныне специальный прокурор Роберт Мюллер. В последнее время в твиттере увеличилось количество публикаций с хэштегом #releasethememo (рус. «опубликуйте меморандум»).
Речь идет о неком четырехстраничном докладе, в котором упоминаются несколько случаев злоупотребления властью со стороны ФБР, а также нарушении Акта о негласном наблюдении в целях внешней разведки, который в теории может свести на нет все усилия Мюллера и его команды.
Есть вероятность, что к антимюллеровской кампании, объединившей сторонников Трампа, призывающих прекратить расследование в отношении России, присоединились и «российские тролли», которые пользуются своим влиянием в социальных сетях и пытаются оказать влияние на внутреннюю политику США даже после выборов.
Кроме того, руководитель Центра цифровой журналистики Колумбийского университета Джонатан Олбрайт, который занимается изучением дезинформации в социальных сетях, скептически отнесся к заявлению Twitter об удалении всего сомнительного контента. По его словам, публикации заблокированных аккаунтов были ретвитнуты огромным количеством других, менее выдающихся аккаунтов, а значит они продолжают существовать.

«Это откровенная ложь... Беспокоит только тот факт, что тысячи подобных записей все еще очень легко найти», — заявил Олбридж.: https://www.gazeta.ru/tech/2018/01/22/11621060/russian_bots_assemble.shtml

Как телевидение используется для стирания грани между вымыслом и реальностью для россиян

Москва (Aftenposten): Половине россиян сейчас кажется, что они уже не в состоянии отличить правду ото лжи на российских телеканалах.
«Сегодня у нас (в программе) невероятные разоблачения», — заявил ведущий российской телепрограммы «Пусть говорят» на Первом канале вечером во вторник.
В течение следующего часа российским телезрителям был представлен целый ряд «фактов», касающихся убийства критика Путина Александра Литвиненко и попытки отравления Сергея Скрипаля и его дочери в Великобритании:
• «Британцы сделали это сами, чтобы навредить России, ослабить Путина накануне президентских выборов и увести дебаты о Брексите в другое русло».
• «Англия использовала это для того, чтобы самой провести Чемпионат мира по футболу».
• Швеция также была названа российскими властями возможным «козлом отпущения», хотя более позднее заявление носило более умеренный характер: речь шла лишь о «комментарии», а не об обвинении.
Телеканал регулярно смотрят 106 миллионов россиян.
Пропагандистский телевечер на крупнейшем в России, управляемом Кремлем телеканале, только начался.
В момент кульминации вечера зал взорвался аплодисментами:
На сцену выводят Вальтера Литвиненко, отца критика Путина Александра Литвиненко, умершего в 2006 году после того, как ему подали чашку зеленого чая с радиоактивным полонием-210 в ресторане одной из гостиниц Лондона.
В 2006-2012 годах отец (Литвиненко) говорил, что он не сомневается в том, что за убийством сына стояли Путин и российские спецслужбы.
Но российский телеканал заставил отца изменить свои объяснения и возложить вину на ближайшего помощника убитого сына.
Рядом (с отцом Литвиненко) в телестудии сидит какой-то мужчина и улыбается.
Это депутат Госдумы Андрей Луговой — человек, который, по данным британского судебного расследования, убил сына Вальтера Литвиненко и оставил после себя следы использования полония-210 как до, так и после убийства.
Как Кремль влияет на российских телезрителей
Телевизионное шоу — лишь один из очень многих примеров того, как осуществляется контроль Кремля над СМИ:
«Подавляющее большинство, если не все участники, поддерживают в программе дебатов версию Кремля», — говорит знаток России и специалист по СМИ Ричард Бэруг (Richard Bærug), который на этой неделе выпустил книгу «Путинская пресса» (Putin,s presse), о том, как Кремль контролирует СМИ.
«Прокремлевские высказывания встречают аплодисментами, программа буквально перенасыщена теориями заговора. Многие, конечно же, верят основной идее, которую людям вдалбливают в головы», — говорит Бэруг.
Уже невозможно отделить правду от лжи
Цифры, приводимые независимым институтом изучения общественного мнения «Левада-центр», говорят о том, что 46% россиян сами признают, что уже не могут отличить правду ото лжи.
Кроме того, половина опрошенных считает, что населению вовсе нет необходимости знать истину:
«Это может указывать на то, что государственная монополия на СМИ смогла лишить почти половину населения желания знать правду», — говорит Бэруг.
«В мире, в котором идеалы рухнули, уступив место мешанине и хаосу, президент в России пользуется — может быть, именно поэтому — всеобщим доверием».
Бэруг указывает, что, хотя это и обеспечивает Путину колоссальную поддержку, в международном плане Россия платит за такое доверие высокую цену.
«Откровенная ложь последних лет была настолько масштабной, что, вероятно, способствовала падению доверия к Путину, Лаврову и прочему российскому руководству у большой части международного демократического сообщества на много лет вперед», — полагает Бэруг.
«Подобное тотальное недоверие означает, что, говорит кремлевское руководство правду или нет, все равно возникает подозрение, что это ложь».
Распространенные в России мифы
Сегодняшняя позиция россиян показывает, что многие теории заговора и ложь воспринимаются как реальность:
• Большое количество россиян думают, что Украиной правит «Правый сектор» (правоэкстремистская организация, запрещена в РФ — прим. ред.), хотя на президентских выборах на Украине после Майдана партия получила всего лишь 0,7% голосов.
• Многие россияне убеждены в том, что на Украине никогда не было российских солдат, хотя сотни этих солдат вернулись домой в гробах или были взяты в плен на фронте в Донбассе.
• Контролируемые Кремлем СМИ также изменили точку зрения россиян и на всемогущую службу безопасности ФСБ, и на диктатора Иосифа Сталина, к которому все больше россиян относятся положительно.
Норвегия в качестве «ада на земле»
Книга «Путинская пресса» показывает также, что российская пропаганда не обошла вниманием и Норвегию.
Одна из тех, кто чаще всего высказывался по российским телеканалам, начиная с 2011 года, — русская женщина, проигравшая дело об опеке над ребенком в тяжбе со своим норвежским мужем.
В России она выступает как «эксперт по Норвегии»:
• «Норвегия — одна из самых извращенных стран в мире», примитивная страна, которая в 1960-е годы находилась «на уровне африканских стран», и у которой 100 лет назад даже не было собственного алфавита, говорила «эксперт по Норвегии» в одном из своих многочисленных интервью.
• «В Норвегии секс между братьями и сестрами — норма. Там инцест — дело совершенно обычное», — вот одно из ее высказываний по российскому телевидению.
• Российские телезрители услышали — и это не было опровергнуто — что «норвежские дети нередко больны, страдают синдромом Дауна и генетическими заболеваниями по причине частых сексуальных контактов между близкими родственниками. Поэтому большинство детей в Норвегии являются инвалидами».
По словам «эксперта по Норвегии», это приводит к тому, что норвежская «Барневернет» (служба опеки — прим. ред.) отнимает столько русских детей, сколько может.
«У иностранцев, в основном, рождаются здоровые дети, потому что у них нет таких традиций инцеста, которые распространены в Норвегии», — говорилось в программе российского православного телевидения.
От российского телевидения можно ожидать большего
Анализ СМИ, проведенный Бэругом, показывает, что только в 2011-2015 годах пресловутая «эксперт по Норвегии» поучаствовала в трех крупнейших российских новостных программах на Первом канале, в «Вестях» и на канале НТВ минимум 60 раз.
Весной ее истории о Скандинавии получили продолжение в мини-сериале «Сын» на крупнейшем в России Первом канале. В сериале речь идет о том, как Запад похищает русских детей.
По словам «Российской газеты», официального органа правительства России, фильм основан на том, что русской женщине довелось пережить в Норвегии. Она была консультантом создателей фильма.
https://inosmi.ru/social/20180326/241805665.html

Роскомнадзор готов включить граждан в "черный список" распространителей фейк-ньюс
Москва, 23 сентября - "Вести.Экономика". Роскомнадзор поработал над созданием на своем сайте списка изданий, интернет-сообществ и отдельных лиц, которые распространяют недостоверную информацию, сообщается в докладе главы ведомства Александра Жарова к форуму Союза журналистов России "Вся Россия".
"Роскомнадзор со своей стороны проработал данную тему, и в настоящий момент мы готовы создать на сайте Роскомнадзора соответствующий открытый список изданий, интернет-сообществ и лиц, которые регулярно участвуют в распространении фейков", - цитирует ТАСС подробности доклада.

В этом перечне будут указываться адреса страниц, которые распространяют недостоверную информацию и описание такой информации.

Жаров напомнил, что на медиафоруме Общероссийского народного фронта он предложил создать реестр распространителей недостоверной информации. Это предложение было поддержано председателем Союза журналистов России Владимиром Соловьевым.
Подробнее: https://www.vestifinance.ru/articles/125422



Российский репортаж о Дании искажает правду

25.04.2018 редакционная статья
Сюжет российского телеканала о Дании раскритиковали политики и участники интервью. По их мнению, они стали жертвами грубой манипуляции. Эксперт считает лживый сюжет частью политической игры. Министерство обороны выразило свою обеспокоенность.

Датчане, участвовавшие в съемках российского репортажа о Дании, считают, что смысл их высказываний оказался жестоко искажен, сообщает радиостанция «Радио24сюв» (Radio24syv). В сюжете, показанном на прошлой неделе на российском государственном телеканале НТВ, рассказывается о страхе датчан перед Россией и новой радиомачте, воздвигнутой на острове Борнхольм датской военной разведкой.

Посмотрев ролик в датском переводе, бывшие министры Ник Хэккеруп (Nick Hækkerup) и Могенс Люккетофт (Mogens Lykketoft), оба — члены Социал-демократической партии, считают, что пали жертвой «русской пропаганды».
«Весь репортаж — одна сплошная подтасовка, сотканная из вранья. К сожалению, это весьма типично для нынешней односторонней пропагандистской политики. Смысл интервью был в том, чтобы дать нам высказаться по существу и разъяснить нашу позицию. Однако этого не произошло», — говорит бывший министр внутренних дел Могенс Люккетофт…..

 На вопросы «Радио24сюв» в НТВ не ответили. https://inosmi.ru/social/20180425/242076229.html

Фейковые новости, которые россияне слышат у себя дома

«В некоторых странах детей забирают из семей, если в этих семьях не навязывается гомосексуальность. Нет, это происходит не в России, это происходит в Европе» (российское телевидение).
... У этого бесконечного потока негативных новостей может быть еще одна более зловещая причина, особенно с учетом того, что такие же новости россияне слышат о США и Украине. Если бы Россия ожидала или планировала какой-нибудь конфликт с Европой — дипломатический, экономический, политический или военный — ее лидеры использовали бы именно такую стратегию: выставлять соседей России одновременно агрессивными и слабыми, испорченными и опасными и позиционировать Европу как общество, которое более сильная и добродетельная Россия может и должна с легкостью сокрушить. Возможно, эта мысль излишне пессимистична. Однако в противном случае довольно трудно объяснить, почему Москва так себя ведет.


Киселев в мире фейков. Что не так с телесюжетами о химической атаке в Думе?
Российское ТВ ухитрилось использовать для "разоблачающих" сюжетов о сирийских "Белых касках" кадры сразу из двух художественных фильмов: одного пропагандистского, снятого по заказу сирийского правительства, другого – антиасадовского, рассказывающего об атаке с использованием зарина в 2013 году. А интервью с мальчиком, которое Дмитрий Киселев использовал для обвинения "Белых касок" в производстве фейков, оказалось снято в Доме офицеров в Дамаске, который используют российские военные, – хотя автор, военкор телеканала "Россия" Евгений Поддубный это отрицает….

Темное царство
25.05.2018
Семен Новопрудский о том, почему просвещение важнее министерства
15 марта 1824 года посредством разделения одного ведомства на два в Российской империи было создано Министерство просвещения (в его названии еще фигурировало слово «народное»). 15 мая 2018 года посредством разделения одного министерства на два в России было создано… Министерство просвещения. 194 года стабильности.
… Россия. Наши дни. Казаки разгоняют нагайками антиправительственную акцию в Москве. Заголовки новостей: «Тамплиеров заподозрили в ограблении штаба петербургских казаков»… «Тамплиеры открестились от ограбления петербургских казаков». В соцсетях буквально на днях видел обложки книжек «Молитвы перед экзаменом» и «Молитвы перед контрольной». А уж сколько такой информации выдают по запросу интернет-поисковики…
Помолимся — глядишь, и напишем контрольную хотя бы на «троечку».
Кстати об интернете. Россия еще в начале 2018 года считалась страной с одним из самых хорошо и быстро работающих интернетов в мире. Но нашему государству зачем-то взбрело в голову начать блокировать Telegram. Теперь оно второй месяц активно «ломает интернет» в самых разных местах с грацией слона в посудной лавке и примерно с такими же результатами.
В России переназначают министра культуры, а Министерство культуры тоже прежде всего должно заниматься просвещением людей. В России же Минкульт давно стал банальным охранительным, а не просветительским ведомством.
Наши общенациональные и, что самое опасное – общедоступные — телеканалы густо смешивают лженаучный бред с «геополитическими» фантазиями. Телевидение превратилось в самого настойчивого и массового апологета мракобесия разных сортов. Вообще если историки захотят в нескольких словах описать период русской истории примерно с начала 2012 года, с дела Pussy Riot, до наших дней и дальше (пока он явно продолжается), одним из этих слов станет именно «мракобесие».
У нас на дворе, несмотря на весь хайп вокруг цифровой экономики и технологического прорыва, явно эпоха Затемнения, а не Просвещения или хотя бы просто «просвета». «Беспросветность» — еще одно слово, точно характеризующее сегодняшнюю атмосферу в России.
Государство пытается максимально затемнить для народа истину как в своих собственных политических и экономических действиях, так и в истории. Не случайно государственная борьба за «единственно правильное прошлое» в нашей стране в последние годы достигла невиданного размаха. При этом признать некоторые очевидные и однозначные, но неприятные факты даже из относительно недавней истории мы до сих пор официально не решаемся. Словно боимся, что люди догадаются: наша история состояла не из одних триумфов и подвигов.
Но есть и хорошие новости. В стране, где давно нет нормальной политики, практически не ходят социальные лифты, а работать на власть любого уровня все чаще означает убивать остатки собственной совести, у людей не может не возникнуть тяги к знаниям и «вечным» ценностям.
Поиски личного убежища от свинцовых мерзостей жизни в высокой культуре и «отвлеченном знании» — давняя русская забава.
Поэтому возникают один за другим научно-просветительские проекты — от «Арзамаса» до «Полки». Поэтому у молодых вновь появилась мода на хождение по всевозможным лекциям и выставкам. «Научпоп» переживает в России что-то вроде ренессанса. Впрочем, это касается только немногих крупных городов.
При этом новая эпоха Просвещения — единственный шанс для России хоть как-то приблизиться к тому самому «экономическому и технологическому рывку», который официально провозглашен главной задачей страны в нынешнем президентском цикле. Да просто к нормальной жизни. Новое Просвещение нужно нам потому, что современная экономика — это экономика знаний, а не скреп, молитв и камланий. Молиться об экономическом росте или освящать космические корабли — скажем мягко, недостаточно для того, чтобы экономика росла, а космические корабли взлетали и не падали.
Два главных условия успешного развития страны в современном мире — свобода и культ знаний. Не вождей, не традиций, а именно свободного знания. Очищенного от идеологии, политической целесообразности и даже — о, ужас! – от абстрактной морали. Потому что развиваются не государства — развиваются люди. И только люди. Не государства придумывают вакцины, социальные сети, новые материалы, описывают устройство вселенной — это делают отдельные люди или их коллективы. Государства способны лишь помочь им условиями для созидательной работы или хотя бы не мешать. Государство — это форма, а не содержание. Помощник, а не хозяин.
Спросите у людей на улице, много ли они назовут имен всемирно известных российских ученых, живущих и работающих сейчас в России? Боюсь, ни одного. Вы можете себе представить, чтобы в любой развитой стране мира высокопоставленный политик публично и с одобрения большинства населения поставил знак равенства между страной и ее руководителем? Ну, например, сказал бы: «нет Трампа — нет Америки». Или «нет Меркель — нет Германии». Или «нет Макрона — нет Франции». Как раз попытки возложить всю ответственность за страну и даже за сам факт ее существования на одного человека, каким бы важным он ни был, и есть вернейший признак «темного царства».
Просвещение, кроме собственно знаний, дает людям понимание необходимости самосовершенствования и важности гуманистических ценностей. Избавляет от политического инфантилизма. Формирует чувство собственного достоинства и личную ответственность. Не «есть кто-то — есть Россия», а «есть я – есть Россия», пока я живу и работаю здесь.
Просвещение — способ производства (в хорошем смысле слова) светлых людей. Да, светлыми люди могут стать и благодаря вере. Но одной веры без знаний и таланта недостаточно, чтобы создавать великие произведения искусства, совершать научные открытия, качественно строить дороги и мосты.
Конечно, возникает естественный вопрос — как сделать так, чтобы в России наступила новая эра Просвещения? Начинать надо с простого. Гнать из власти людей, не способных внятно выражать свои мысли, защитивших липовые диссертации и, главное, лгущих. Да-да, просвещение начинается с того, что представители власти всех уровней в публичном пространстве начинают говорить правду, только правду и ничего, кроме правды. Для этого много времени не надо — можно начать прямо с сегодняшнего дня.
Следующая задача государства для перехода к эпохе Просвещения — официально провозглашенный и реально исполняемый (врать больше нельзя не только на словах, но и в делах) приоритет здравоохранения, науки, образования, культуры в широком смысле слова — над милитаризацией.
Дикая, отсталая недостаточно просвещенная и экономически неэффективная страна прекрасно уничтожит себя сама, без помощи внешних врагов — причем никакое оружие, никакая армия ей не помогут. Россия убедительно доказала это на собственном примере дважды за последние 100 лет.
Ну, и, конечно пропаганда знаний всеми возможными способами — от образовательных учреждений до соцсетей и интернет-ресурсов. Каждодневная, разнообразная. Воспитание моды на знания. Отказ государства от позорных историй вроде преследования Европейского университета в Петербурге. От покровительства лженауке и попыток использовать религию в прикладных идеологических целях.
Просвещение возможно только там, где государство ставит гуманистические, светлые цели, а не желает напугать всех новыми ракетами или отнять чужоеГде человек, а не абстрактные государственные интересы, становится высшей целью и смыслом политики. Где размер территории не является более важным признаком успеха и могущества, чем качество жизни людей, эту территорию заселяющих. Более того, именно просвещение может стать идеологической основой самой правильной национальной идеи, раз уж мы не можем без нее обойтись - а именно сделать Россию передовой научно-технологической и интеллектуальной державой планеты. Самой умной страной мира. Чтобы мы рождали «собственных Платонов и быстрых разумом Невтонов», а не только нефть и газ.
У министерств просвещения, которые в разных вариантах и с разными смыслами (то как министерство идеологии, то как министерство по делам религий, то как министерство «школ») существовали и в царской России, и в СССР, пока, откровенно говоря, не очень-то получилось сделать нашу страну просвещенной. Даже при том, что в России высока доля людей с высшим образованием. Прежде всего, потому, что главной задачей этих ведомств всегда было обеспечение лояльности народа вышестоящему начальству, а вовсе не помощь людям в поисках знаний.
Пока нет оснований говорить, что Министерство просвещения РФ в своем нынешнем изводе окажется успешнее своих предшественников.
Но проверить, получилось или нет, будет очень легко – по качеству образования и медицины, по тому, что и каким языком будут говорить наши политики и наше телевидение, по тому, где и как будут работать наши ученые. Конечно, темными людьми в темном царстве легче управлять. Точнее — помыкать. А любой луч света может предательски высветить неприглядную картину истинного положения вещей, которой не видно в кромешной тьме.
Разумеется, знания могут нести не только счастье прогресса или новый уровень жизненного комфорта, но и горькую правду о бедах и проблемах страны и людей. Так ведь и всякая человеческая жизнь — по большому счету, неизбежная неудача. Но технологических рывков в темных царствах точно не бывает — как ни молись.
12 сентября 201817:35 Анатолий Глянцев

Искусственный интеллект фабрикует видео, на которых кто угодно говорит что угодно

Видеоролик на глазах перестаёт быть доказательством того, что определённый человек сказал те или иные слова: новая нейронная сеть вкладывает в уста персонажа что угодно по воле создателя. Правда, пока она работает лишь с изображением, а не со звуком. Новинка разработана специалистами Университета Карнеги–Меллона (Carnegie Mellon University) в США.
Технология является развитием методов, с помощью которых на изображения актёров "наклеиваются" лица известных людей. Подобные эффекты применяются в разных областях, от создания комических роликов до порноиндустрии. Новшество идёт дальше: оставляя персонажу видео его собственное лицо, оно придаёт ему нужную артикуляцию, заставляя произносить чужие слова.
Поясним. В распоряжении искусственного интеллекта имеются два видеоролика. Допустим, на одном из них диктор рассказывает о новостях IT-индустрии, а на другом Мэрилин Монро произносит актёрский монолог. Задача системы состоит в том, чтобы скопировать движения губ диктора и заставить почившую в 1962 году голливудскую знаменитость рассуждать об уязвимостях Windows-10.

Как сообщает издание New Atlas, разработка развивает алгоритм машинного обучения, известный как генеративно-состязательная сеть (ГСС). Первая нейронная сеть (генератор) стремится как можно точнее скопировать артикуляцию диктора. Задача другой сети (контролёра) в том, чтобы как можно точнее распознать подделку. Между двумя компьютерными разумами возникает соревнование, в результате которого они обучаются гораздо эффективнее, чем поодиночке. "Вести.Наука" (nauka.vesti.ru) уже рассказывали об этом подходе, позволившем создать картины в уникальном стиле.
Следующей ступенью системы является циклическая ГСС. Здесь качество подражания проверяется так. Создав артикуляцию для Мэрилин Монро на основе движений губ диктора, система выполняет обратный процесс. Взяв за образец эту искусственную "речь" актрисы, она синтезирует такую же артикуляцию для диктора и сравнивает её с исходной. Похожим образом можно проверять качество перевода с русского на английский, переводя результат обратно на русский и сравнивая с исходным текстом.
Такая система работает эффективнее, чем обычная ГСС, но и она довольно часто допускает ошибки. Поэтому авторы разработали алгоритм нового поколения: рециклическую ГСС. Вместо того чтобы обрабатывать каждый кадр независимо, как предыдущие системы, он учитывает, каким было положение губ на предыдущих и последующих кадрах. Это уменьшает процент ошибок и способствует более качественному подражанию.

К слову, алгоритм можно применять не только для того, чтобы вложить речь одного человека в уста другого. На странице проекта можно найти несколько примеров видеороликов, созданных с помощью этого подхода. Там есть "скопированный" процесс раскрытия цветка и бег облаков. Артикуляцию реальных людей можно передавать и персонажам мультфильмов.
Но всё же самым интригующим возможным применением остаётся создание фейковых видеороликов. Остроту проблемы несколько снимает тот факт, что детище инженеров работает только с изображением, а не со звуком. Но не исключено, что в скором будущем искусственный интеллект справится и с этой задачей.
Тогда видеоролик перестанет быть компроматом на политика или доказательством в суде, ведь легко можно будет сфабриковать видео с любой речью, произносимой кем угодно. Есть, впрочем, и приятный момент: лекции сухонького старичка-профессора можно будет вложить в уста прекрасной полуобнажённой модели. Не исключено, что такая мера серьёзно повысит успеваемость некоторых студентов.
К слову, "Вести.Наука" рассказывали о системах искусственного интеллекта, которые читают по губам лучше человека, создают убедительные лица для рекламы, учатся подражать человеку после одного просмотра видео и воспроизводят стиль известных художников. Также мы говорили о нейронной сети, которая распознаёт фейковые новости.

5 октября 2018 Евгения Ефимова
Борьба с фейковыми новостями: новая система проверит информацию в статьях на достоверность

….Недавно же учёные из Лаборатории компьютерных наук и искусственного интеллекта при Массачусетском технологическом институте (MIT) и Научно-исследовательского института вычислительной техники Катара представили миру новую систему машинного обученияОна предназначена для анализа отдельных статей и целых новостных ресурсов с точки зрения точности фактов и политической предвзятости.
Сначала исследователи "скормили" системе данные из источника под названием Media Bias/Fact Check (MBFC). Речь идёт о независимом ресурсе, классифицирующем источники новостей на основе их политической предвзятости и фактической точности.
Специалисты обучили систему классифицировать точность и предвзятость новостного ресурса, основываясь на пяти пунктах: текстовом, синтаксическом и семантическом анализе статьи, его странице в Wikipedia, аккаунте в Twitter, структуре URL и веб-трафике. Иными словами, система собирает всестороннюю информацию о ресурсе.
По мнению учёных, на сегодняшний день наиболее обстоятельным аналитическим инструментом системы является её способность изучать отдельные статьи. Проводя подобную "диагностику", она опирается сразу на 141 параметр, дабы классифицировать и точность, и предвзятость заметки.
… По итогу фактическая точность новостного ресурса классифицируется по трёхбалльной шкале, а политическая предвзятость измеряется по семибалльной шкале.
Специалисты говорят, что системе необходимо проанализировать 150 статей из заданного источника, чтобы определить точность и предвзятость.
На данном этапе точность системы достигает 65 процентов при обнаружении фактической точности и 70 процентов при "диагностике" политической предвзятости по сравнению с аналогичными данными, проверенными человеком из MBFC.
Сегодня система ещё находится на стадии разработки. В будущем учёные намерены усовершенствовать алгоритм для анализа достоверности ресурса. При этом они видят предназначение системы в работе в тандеме с человеком, который также будет проверять факты новостного ресурса.
Также специалисты задумываются о создании нового приложения, предлагающего пользователям достоверные новости, охватывающие широкий политический спектр.
Примечательно, что многие эксперты признают, что алгоритм также отражает необъективность людей, создавших его. В связи с этим систему машинного обучения нельзя считать волшебной палочкой, решающей проблему фейковых или предвзятых новостей. При этом подобные технологии могут дать человечеству ценные инструменты для устранения подобной проблемы.
Результаты исследования доступны на сайте препринтов Arxiv.
Добавим, что. учёные Мичиганского университета также создали нейронную сеть, которая отличает фейковые новости от достоверных лучше, чем человек-эксперт
Кроме того, в 2017 году в России было объявлено о запуске проекта по развенчанию фейковых новостей.

Арендт Ханна - Истоки тоталитаризма

Чахотин Сергей Степанович

«Изнасилование масс. Психология тоталитарной политической пропаганды»

Peter Pomerantsev
NOTHING IS TRU
E AND EVERYTHING IS POSSIBLE. THE SURREAL HEART OF THE NEW RUSSIA

New York: Public Affairs, 2014

Книга британского публициста Питера Померанцева «Россия: ничего не правда и все возможно».
Примечания
1.     См. рецензию на эту книгу Gessen M. The Dying Russians // The New York Review of Books. 2014. September 2nd. URL: http://www.nybooks.com/daily/2014/09/02/dying-russians/ 


EU vs DISINFORMATION

 EUvsDisinfo is the flagship project of the European External Action Service’s East StratCom Task Force(opens in a new tab). It was established in 2015 to better forecast, address, and respond to the Russian Federation’s ongoing disinformation campaigns affecting the European Union, its Member States, and countries in the shared neighbourhood.

EUvsDisinfo’s core objective is to increase public awareness and understanding of the Kremlin’s disinformation operations, and to help citizens in Europe and beyond develop resistance to digital information and media manipulation.

Cases in the EUvsDisinfo database focus on messages in the international information space that are identified as providing a partial, distorted, or false depiction ...

https://euvsdisinfo.eu/about/


Nav komentāru:

Ierakstīt komentāru