https://www.ozon.ru/product/kak-izbavitsya-ot-okov-totalitarizma-526017537/?sh=lUPMEml_0g
https://www.super-izdatelstvo.ru/product/kak-izbavitsya-ot-okov-totalitarizma* * *
Ученые Стэнфордского и Принстонского университетов, Института информатики общества Макса Планка и Adobe Research разработали компьютерную программу, которая позволяет редактировать текст, который произносит человек в кадре, и подстраивать его мимику к новому аудиоряду. Несмотря на то что нейросетевой алгоритм пока не умеет синтезировать звук (менять тембр голоса тоже нельзя), работу с этой технологией упростили настолько, что создание убедительных видеоподделок будет под силу практически любому.
Система пока не готова в качестве обычного приложения, однако Adobe — компания-разработчик Photoshop — уже создала прототип, в котором можно редактировать речь на видео так же легко, как фотографию.
Программное обеспечение использует машинное обучение и трехмерные модели лица цели для создания нового материала, который позволяет пользователю изменять, редактировать и удалять слова, которые выходят из уст человека на видео, просто вводя новый текст.Чтобы создать реалистичные видеофейки, система находит произносимые человеком фонемы (минимальные единицы звукового строя, из которых состоят слова), а затем сопоставили их с виземами — выражениями губ и лица, соответствующими определенному звуку. Когда меняется текст, произносимый человеком на видео, система объединяет эти данные — фонемы, виземы и лицевую 3D-модель — и генерирует новый визуальный ряд, согласно правкам.
Для анализа искусственному интеллекту требуется не менее 40 минут оригинального видео, где голова спикера будет занимать большую часть кадра и не будет перекрываться посторонними объектами.
Пока система пока не умеет подменять звук. Впрочем, такая технология уже есть у ученых из группы Facebook AI Research. Они разработали алгоритм MelNet, который синтезирует речь со свойственными конкретному человеку характеристиками. К примеру, он научился подражать голосу Билла Гейтса.
MelNet анализирует спектрограммы аудиодорожек обычных выступлений на TED Talks, подмечает особенности речи, присущие спикеру, и воспроизводит короткие реплики.
Как раз длиной реплик и ограничены возможности алгоритма. Короткие фразы он воспроизводит очень близко к оригиналу. Однако интонация человека меняется, когда он говорит на разные темы, с разным настроением, разной подачей. Подражать этому алгоритм пока не умеет, поэтому длинные предложения звучат искусственно.
Все подобные технологии могут привести к засилью deepfake-видео, которые делаются при помощи искусственного интеллекта, который использует фотографии реального человека и на их основе создает фэйковый ролик.
Facebook недавно подвергалась критике за то, что отказалась заблокировать фейковое видео, на котором спикер Палаты представителей конгресса США Нэнси Пелоси выглядит пьяной (на самом деле видео было просто замедлено). Спустя какое-то время появилось фэйковое видео с главой соцсети Марком Цукербергом. Его создали с использованием технологии VDR (Video Dialog Replacement) от CannyAI. На этом видео Цукерберг рассказывает о том, как он полностью контролирует украденные данные миллиарда людей, их секреты, их будущее. Видео создано на основе реального выступления Цукерберга по поводу вмешательства россиян в президентские выборы в США.
Deepfake-видео с Цукербергом было создан в рамках арт-проекта и демонстрируется в британском городе Шеффилд. Цель проекта - привлечь внимание к тому, как легко манипулировать сознанием людей при помощи соцсетей.
Подробнее: https://www.vestifinance.ru/articles/120874
ИИ, пишущий фейковые новости, решили не выпускать на свободу
издание Snopes.com, специализирующее на проверке фактов и опровержении фейков
Датчане, участвовавшие в съемках российского репортажа о Дании, считают, что смысл их высказываний оказался жестоко искажен, сообщает радиостанция «Радио24сюв» (Radio24syv). В сюжете, показанном на прошлой неделе на российском государственном телеканале НТВ, рассказывается о страхе датчан перед Россией и новой радиомачте, воздвигнутой на острове Борнхольм датской военной разведкой.
Посмотрев ролик в датском переводе, бывшие министры Ник Хэккеруп (Nick Hækkerup) и Могенс Люккетофт (Mogens Lykketoft), оба — члены Социал-демократической партии, считают, что пали жертвой «русской пропаганды».
18 января 2021 21:38
Искусственный интеллект научился писать фейковые комментарии
Системы искусственного
интеллекта научились составлять правдоподобные комментарии, неотличимые от
настоящих. Как показал эксперимент, проведенный студентом-медиком Гарвардского
университета Максом Вайсом, сгенерированный
ИИ текст может ввести в заблуждение не только интернет-пользователей, но и
сотрудников госучреждений.
В октябре 2019 года Вайс
узнал, что власти штата Айдахо начали принимать от граждан предложения по
изменению Medicaid — программы медстрахования для людей с низким уровнем
дохода. Оставить свои пожелания на сайте госучреждения мог любой желающий.
Как пишет Wired, из около тысячи поступивших
комментариев половина пришлась на подделки — их составила ИИ-система GPT-2,
которой воспользовался Вайс. По словам энтузиаста, он был впечатлен легкостью,
с которой можно настроить алгоритмы, имитирующие общественную дискуссию.
GPT
— это самообучаемая ИИ-система, разработку которой ведет некоммерческая
организация OpenAI. Его особенность в том, что алгоритм
способен создать осмысленный текст, имея в качестве входных данных всего
несколько предложений.
Отправив фальшивки, Вайс
сразу же уведомил об этом правительственные ведомства — в каждое такое
сообщение он добавил специальные символы, чтобы его можно было легко
распознать. Несмотря на это, сказал студент, поддельные комментарии пробыли в
онлайне еще несколько месяцев.
"Легкость,
с которой бот может генерировать и отправлять на правительственные сайты
релевантный текст, имитирующий человеческую речь, удивительна и действительно
важна для понимания",
— сказала профессор Гарвардской школы им. Кеннеди Латанья Суини, которая
консультировала Вайса. По ее мнению, по мере совершенствования
дипфейк-технологий правительствам и интернет-компаниям необходимо переосмыслить
методы запроса обратной связи, чтобы защититься от манипуляции общественным
мнением.
https://www.vesti.ru/hitech/article/2511925
Demand Protest: фирма "Мы формируем протест" предлагает свои услуги
"Как мы обнаружили, две (информационные - ред.) операции направлялись из России: одна из них проходила в целом ряде стран, вторая - отдельно на Украине. Мы не обнаружили каких-либо связей между этими операциями, но в них использовалась похожая тактика - создать сеть аккаунтов, чтобы таким образом скрыть их происхождение и цели", - говорится в заявлении Глейхера…:
Подробнее: https://www.vestifinance.ru/articles/113288
При этом то, что называется «общественно-политической информацией» иерархически неотличимо от второсортного трэша, под трэш маскируется и в качестве трэша подается. Главное содержание – и главное, критический анализ – к примеру, важного государственно визита и сложных переговоров заменяется на примитивные рассуждения на тему «кто кого уел» или к протокольным подробностям, вплоть до меню. Можно долго размусоливать «ляпы» так называемых «наших партнеров», жесты первых леди, всякий раз говорить о «беспрецедентных мерах безопасности» (причем они всякий раз именно «беспрецедентные»). Такая «политика» идет вперемешку с новостями типа «развод Петросяна» или «что там случилось с Тимати».
Пропаганда не перестала быть пропагандой, и своей цели она добьется так же, как и раньше. Присутствие в эфире разных точек зрения она компенсирует другим образом, форматом, истерикой, превратив все вместе в клоунаду, где невозможно будет различить, кто вообще что говорит. Это была краткая памятка для ходящих на ток-шоу (бесплатно).
https://www.youtube.com/watch?v=Rrtk4a_BswY). Соловьев высказал мнение о певце в своем Telegram-канале.
Гребенщиков Б.Б. : «Во избежание кривотолков хочу заметить очевидную вещь — между «Вечерним Ургантом» и «Вечерним М» непреодолимое расстояние — как между достоинством и позором».
В компании заявили, что, как и для поиска ложной информации в текстовых постах, была создана самообучающаяся модель. В число используемых ею методов входит обратная связь с пользователями соцсети. Затем отобранные фотографии и видео отправляют на фактчекинг независимым партнерам Facebook, большинство из которых обучены техникам визуальной проверки подобных материалов, сообщает Deutsche Welle.
Для извлечения текста из фотографий проверяющие используют метод оптического распознавания символов, отметила представитель компании. Отмечается, что многие сторонние партнеры компании по проверке фактов имеют опыт оценки фотографий и видео и получили подготовку в технике визуальной верификации.
"Мы задействуем в проверке информации на фото и видео 27 наших партнеров в 17 странах по всему миру. Это поможет нам быстрее выявить и принять меры против большего количества дезинформации", — говорится в сообщении менеджера социальной сети Антонии Вудфорд.
В августе из Facebook и Instagram из-за "скоординированного неаутентичного поведения" были удалены более 650 страниц, групп и учетных записей. Публикуемые на этих страницах материалы были нацелены на дезинформацию пользователей, сообщило руководство соцсети.
Основатель и руководитель компании Facebook Марк Цукерберг в четверг заявил, что созданная им социальная сеть более приспособлена для противодействия возможному вмешательству в выборы и информационным атакам, чем во время президентских выборов в США в 2016 г.
"В 2016 г. наши системы безопасности были направлены против традиционных кибератак, таких как фишинг, хакерская деятельность и вредоносные программы. Мы выявили эти угрозы и уведомили правительство, а также всех, кто пострадал. Чего мы не учли, так это скоординированных действий из-за рубежа за счет сети подставных аккаунтов, распространяющих раздор и дезинформацию", - написал Цукерберг в своем блоге….:
Подробнее: https://www.vestifinance.ru/articles/106922
Deepfake
В 2018 г. растет количество контента, основанного на deepfake — результате объединения машинного обучения и фальшивых новостей. Созданные при помощи Deepfake видеоролики, на которых, например, известные политики делают какие-то несоответствующие действительности заявления, — это новый инструмент глобальной информационной войны, которая продолжится в 2019 г. При этом выполненные при помощи искусственного интеллекта подделки будет крайне сложно отличить от реальности. Стимулировать данный тип контента будут выборы в Индии и подготовка к избирательному процессу в США. В то же время медиа, интернет-провайдеры, операторы и власти должны искать пути защиты для демократических процессов от такого контента.
Например, после попытки государственного переворота в Турции в 2016 году власти перекрыли доступ к Twitter, Facebook и YouTube на нескольких месяцев. Согласно докладу «Свобода в сети» от 2017 года, в определенные периоды «65 процентов всего контента, который был локально ограничен Twitter» приходилось на Турцию. За перекрытием социальных сетей последовали массовые аресты и чистки, частично основанные на наблюдении за деятельностью граждан в интернете.
В-третьих, граждане по всему миру должны уделять этим вопросам гораздо больше внимания. Повышение осведомленности в обществе и на международном уровне касательно репрессивного потенциала технологий требует серьезных и непрекращающихся усилий. Если граждане не будут выражать возмущения по поводу вмешательства правительства в их повседневную жизнь, у властей будет мало стимулов что-то менять. Нормы не будут меняться, если правозащитникам не удастся мобилизовать широкие круги граждан.
От российского телевидения можно ожидать большего
Соцсеть Facebook начала оценивать репутацию пользователей, сообщает The Washington Post. Благонадежность владельца аккаунта определяется по шкале от 0 до 1. До настоящего времени пользователи могли сами сообщать о сомнительном контенте. Но это приводило к обратному эффекту: многие отмечали достоверные новости как "ложные".
"Нередко люди говорят нам, что что-то ложно, просто потому, что они не согласны с предпосылкой истории, или они намеренно пытаются навредить конкретному юзеру", – отметила руководитель департамента по борьбе с дезинформацией Тесса Лайонс.
При этом Facebook не раскрывает критерии, по каким будет выноситься суждение о благонадежности источника, поскольку это откроет и алгоритмы, которыми смогут манипулировать злоумышленники.
"К примеру, если кто-то сообщит нам, что статья ложная, и сотрудник, проверяющий достоверность, подтвердит эту информацию, впоследствии мы будем более внимательно следить за сообщениями о недостоверности статей от этого человека, чем от того, кто просто беспорядочно помечает в качестве фейковых множество сообщений, часть из которых в итоге оказывается настоящей", — заявила Лайонс.
В мае сообщалось, что компания Facebook намерена также внедрить систему, которая позволит ранжировать СМИ по степени достоверности, и на основе этого рейтинга продвигать либо скрывать контент. Уровень объективности информационных средств, как уточняется, будут определять сами пользователи соцсети.
В последнее время соцсеть оказалась в центре сразу нескольких скандалов: сначала Facebook критиковали за многочисленные фейковые новости, появившиеся во время американской президентской кампании 2016 г., а этой весной стало известно, что данные 50 млн пользователей использовала компания Cambridge Analytica.
Как ранее сообщали "Вести.Экономика", Facebook удалила 652 страницы, группы и учетные записи, принадлежавшие пользователям, проживающим в Иране и России, "за согласованные недостоверные действия". Таким образом, социальная сеть проводит "активную чистку" после выборов 2016 г. в США.
В Facebook утверждают, что это ложные аккаунты, созданные для распространения дезинформации на Ближнем Востоке, в Латинской Америке, в Великобритании и США. Причем деятельность аккаунтов из России "связана с российской разведкой", заявляют в компании. Они концентрировались именно на дезинформации, ориентированной на Соединенные Штаты.
"Мы удалили страницы, группы и учетные записи, которые могут быть связаны с источниками, которые, как ранее установило правительство Соединенных Штатов, являются российскими военными разведслужбами", - отметила Facebook.
Глава компании Марк Цукерберг при этом отметил, что "безопасность - это не вопрос, который можно решить полностью". Он заявил, что важно наладить отношения с правоохранительными органами, правительствами и другими странами для обмена информацией, поскольку компания должна разработать собственные инструменты для отсеивания проблемного контента.:
"Создать
фейк легче, дешевле и быстрее, чем разоблачить его"
Как распознать дипфейки
15
марта 2024 года , Любовь Багацкая
В конце февраля – начале марта 2024 года пользователи украинского сегмента тиктока стали замечать видео, на которых якобы украинские и российские солдаты рассказывают "правду" о войне, говорят, что "между Путиным и Зеленским нет разницы", и подстрекают к так называемому "Майдану-3". Однако если всмотреться в видео, то можно заметить, что лица людей на них порой выглядят плоскими, на них специфические тени, а голова как будто приклеена к телу. При этом речь говорящих достаточно качественно записана. Эти видео – дипфейки (deepfake), созданные с помощью искусственного интеллекта (ИИ).
Качество
видео, созданных искусственным интеллектом, стремительно улучшается. Так, в
феврале 2024 года пользователей соцсетей удивила презентованная компанией
OpenAI нейросеть Sora,
которая генерирует довольно реалистичные видео высокого качества по текстовому
запросу. С фотографиями заметить подлог еще сложнее. Находясь в эмоциональном
состоянии, особенно когда речь идет о сообщениях, связанных с войной,
пользователи могут не обращать внимания на то, реальны ли фото, которые они
находят, и делиться ими в своих профилях.
Настоящее
Время рассказывает о том, какими бывают дипфейки, что помогает обычным
пользователям не попадаться на эти уловки и как социальные сети и СМИ могут
противодействовать распространению фальшивых фото, аудио и видео, созданных с
помощью искусственного интеллекта.
Дипфейки:
польза и опасность
Технологии,
позволяющие создать фейковые видео, фото или аудио, вопреки распространенному
мнению, приносят и пользу: их можно использовать в образовательных целях, в
культуре, науке. Однако значительно чаще о дипфейках говорят в контексте
распространения дезинформации и пропаганды. Одним из проектов, которые
разоблачают фейки в Украине, является проект VoxCheck, созданный на базе
аналитического центра VoxUkraine. Он начинал работу с классического
фактчекинга: проверки фактов и данных, обнародованных политиками, а позже начал
проверять также экспертов и медиа. В 2020 году VoxCheck стал одним из
партнеров Facebook в фактчекинговой программе для проверки и оценки точности
контента.
СМОТРИТЕ
ТАКЖЕ:
https://www.currenttime.tv/a/facebook-factcheck-ukraine-covid/30558914.html
Редактор
и старший аналитик проекта VoxCheck Кирилл Перевощиков говорит, что в своей
работе все чаще сталкивается с дипфейками. Он делит их на три условные группы.
Первая
– это фейки, которые используются для информационных атак, для
информационно-психологических операций (ИПСО), чтобы посеять панику или вызвать
недоверие к властям в Украине. "Из последних можно вспомнить разные
дипфейки как Залужного, так и Зеленского. Что, мол, Залужный записал видео, где
объявляет про госпереворот, [говорит] о том, что Зеленский нелегитимный",
– вспоминает Перевощиков. Также он напоминает о дипфейке, в котором ведущий
французского телеканала якобы объявил, что президент Франции отменил визит в Киев в
феврале 2024 года из-за того, что так называемый режим Зеленского готовил на
него покушение. За основу был взят реальный репортаж, к которому перезаписали
аудио и немного подкорректировали видео. "И судя по последним заявлениям
украинских властей, в частности разведки, россияне готовят спецоперацию под
названием "Майдан 3", где будут как раз "качать" ситуацию
внутри Украины и шерить фейки про мобилизацию, про легитимность президента. То
есть раскачивать ситуацию, чтобы люди окончательно устали от войны и были
готовы к капитуляции в этой войне", – рассказывает аналитик.
Второй
подвид дипфейков – коммерческие, их публикуют не для подрыва доверия к власти,
а для накрутки подписок или кликбейта. "Часто в тиктоке, в ютубе
распространяются фейки с символикой известных телеканалов в Украине, например
ТСН, ICTV, 24 канал. И там известные ведущие с аудио, сгенерированным с помощью
ИИ, объявляют шокирующие новости", – объясняет аналитик. Такие видео
обычно низкого качества, их легко разоблачить, но какая-то часть пользователей
интернета все равно продолжает их потреблять.
И,
наконец, в третью группу аналитик выделяет дипфейки, созданные ради шутки, –
сатиру или юмор. "Есть сеть каналов, как украинских, так и российских,
которая использует ИИ для юмора, для развлечения аудитории. Они открыто
заявляют, что их контент – юмористический, его не нужно воспринимать как
серьезный. Но при этом часто [другие пользователи или каналы] эти видео
репостят как серьезные новости". В начале этого года один из
телеграм-каналов, который регулярно публикует дипфейки с украинскими политиками
или военными, записал видео с Василием Малюком, главой СБУ, в котором тот
якобы обещает приходить лично домой к украинцам, которые публикуют фото или
видео работы ПВО. Далее этот фейк оказался в
Z-каналах как реальное заявление СБУ.
"Наиболее
опасные для украинцев, ну и, в принципе, для любой аудитории как раз дипфейки,
которые сочетаются с ИПСО и созданы для подрыва поддержки Украины на Западе,
для подрыва доверия к власти, снижения поддержки армии или для разжигания
вражды", – считает Перевощиков.
Как
распознать дипфейк
Тренд
на дипфейки в пропаганде и дезинформации аналитик связывает с тем, что
технологии достаточно просты и доступны для рядового пользователя интернета –
не нужно владеть навыками работы в сложных программах, достаточно иметь базовую
подписку на один из высокотехнологичных сервисов за 1$. К примеру, работая в
программе ElevenLabs,
которая хорошо совместима и с русским, и с украинским языком, можно
генерировать довольно качественные аудио. Аналитик говорит, что процесс
создания такой аудиодорожки может занять 5-10 минут: достаточно найти несколько
примеров голоса спикера с качественным звуком, чтобы программа смогла
скопировать голос и ввести текст, который нужно этим голосом озвучить.
"Мы
сами создавали дипфейки [в демонстрационных целях]: для одного репортажа [о
разоблачении дипфейков], например, мы подделали голос Путина, также у меня есть
пример с Зеленским. И их голоса достаточно убедительно звучат, если не особо
вдаваться в детали, прислушиваться", – рассказывает Кирилл Перевощиков.
Аудио
можно отредактировать, изменить акценты и дальше примонтировать к видео
спикера, рассказывает аналитик VoxCheck. Но работать с видео уже сложнее:
"Часто пропагандисты попадаются как раз на качестве видео: там или мимика
спикера отстает от звука, или само видео имеет плохое качество, или есть
какие-то артефакты на фоне, или губы как-то странно двигаются".
Еще
одна важная причина тренда на дипфейки в пропаганде – сложность их
разоблачения. "Создать фейк легче, дешевле и быстрее, чем разоблачить его,
то есть инструменты проверки фейков, в том числе и дипфейков, развиваются
медленнее, чем инструменты для проверки этих фейков. Мы как фактчекеры,
журналисты, любые работники медиа всегда вынуждены запаздывать, потому что
тратим больше ресурсов, времени, чтобы это разоблачить", – говорит
Перевощиков.
Он
видит причину "успеха" дипфейков еще и в том, что аудитория пока к
ним не привыкла: "Если украинцы уже начали меньше употреблять российской
дезинформации, меньше смотреть русских каналов, то к таким технологиям они еще
не привыкли, и поэтому у них не хватает знаний, как этому
противодействовать".
Однако
даже обычный пользователь интернета, не имеющий специальных инструментов, с
большой вероятностью может распознать дипфейк. "Главный инструмент, как бы
пафосно это ни звучало, – это наша внимательность", – говорит Кирилл
Перевощиков.
Аналитик
рекомендует для начала просто внимательнее присмотреться и прислушаться:
"Если говорить про видео, мы обращаем внимание на мимику спикера,
совпадает ли она с аудио, не отстает ли звук от картинки, какое качество самого
видео или аудио. Сам голос может звучать неестественно, могут отсутствовать
какие-то сторонние шумы, звуки – то есть будто бы видео записано не в
помещении, не на улице, а в студии, хотя для этого нет никаких
предпосылок". Кроме того, неладное с видео может выдать зацикленность
движений, повторение одних и тех же жестов говорящего. Также аналитик VoxCheck
рекомендует проверять первоисточник: если на видео или фото задействован
какой-то известный человек (а большинство дипфейков, распространявшихся в
Украине, созданы с "участием" известных людей – военных, политиков,
ведущих, журналистов), всегда стоит проверить информацию на официальной
странице либо в проверенных и надежных СМИ. "И если этой информации нет ни
на официальной странице, ни на страницах известных качественных проверенных СМИ,
то тогда можно с уверенностью сказать, что это дипфейк", – констатирует
Кирилл Перевощиков.
Распознать
фото, сгенерированное ИИ, может быть, сложнее. Однако всмотревшись в картинку,
можно заметить нестыковки: лишние или недостающие конечности или пальцы,
слишком "глянцевую" кожу, необычные символы. Когда генерируют фото с
группой людей, несколько человек на нем могут выглядеть как близнецы. Кроме того,
если на подозрительном фото есть известные личности, стоит опять же проверить
первоисточник – действительно ли это изображение публиковалось на официальных
каналах или в соцсетях этих людей.
"В
конце прошлого года в украинском сегменте фейсбука часто распространяли фото будто бы украинских военных,
которые стоят на коленях и молятся перед боем. И там, например, на [форме]
военной на переднем плане флаг Украины состоял из трех полос – голубая, желтая
и голубая. То есть искусственный интеллект как-то странно интерпретировал
украинский флаг и создал новый символ. Более того, сами военные были в форме,
больше похожей на российскую, у них не было такого узнаваемого
"пикселя".
Нередко дипфейки используются для создания изображений так называемых чудес
природы. "В прошлом году мы разоблачали фейк о том, что якобы моряки из Латинской
Америки поймали самого большого в мире лобстера, и он выглядит по размеру как
небольшой слон. Сам лобстер выглядит достаточно четко, а люди позади –
замыленные, весь горизонт позади них завален. Все выглядит максимально фальшиво
на таких фото".
В
разоблачении также может помочь обратный поиск изображений в любом поисковике
(Google, Bing, Яндекс) – и система покажет картинки, похожие или идентичные
загруженным. В Яндексе лучше искать именно контент, созданный на русском языке.
Также обычным пользователям может пригодиться уже упомянутый сервис для
создания дипфейков ElevenLabs: у него есть своя программа AI Speech Classifier – она определяет,
создавали ли это видео или аудио конкретно в этой программе. Поскольку
ElevenLabs достаточно популярна среди украинцев и россиян, многие фейки можно
выявить именно так. Кроме того, специалисты упоминают сервисы Hive
Moderation или AI or
not, но у
них есть ограничения функций, доступных бесплатно. При этом аналитики
подчеркивают, что даже специальные программы не могут разоблачить все дипфейки
– и в программах есть погрешности.
Кроме
того, есть сервисы для проверки, которые доступны только отдельным специалистам
или еще находятся в разработке и доступны крупным компаниям, государственным
учреждениям, но не широкой аудитории.
"Поэтому
мы и настаиваем на комплексном анализе. То есть не только залили видео,
проверили в инструменте – все, проверка готова. Нет, сперва мы всегда проверяем
первоисточники, всегда обращаем внимание на само качество фото, аудио, видео, и
уже после этого инструмент как бонус. Не основа нашей проверки, а окончательный
аргумент, что это не фейк", – делится тонкостями процесса проверки
контента аналитик проекта VoxCheck Кирилл Перевощиков.
Однако
лучший способ не попадаться в ловушку дипфейков – читать качественные источники
информации, уверен аналитик. И даже в случае использования соцсетей и
мессенджеров, где может попадаться очень разная и не всегда достоверная
информация, всегда можно подписаться на качественные медиа, напоминает
Перевощиков. "В Украине, например, есть белый список медиа, который
составляется Институтом массовой информации. Там как раз общеукраинские медиа,
которые регулярно придерживаются стандартов. Также советуем читать
украиноязычные версии международных медиа – BBC, Deutsche Welle, Радио Свобода.
То есть если вы подписаны на нормальные каналы, если вы не читаете анонимные
каналы, особенно массовые в Украине, то у вас уже намного меньше шансов
столкнуться с дипфейком".
Дипфейки
и ответственность
На
фоне все более широкого распространения технологии дипфейков компания Meta
(Facebook) объявила, что в 2024 году, когда во всем мире пройдет ряд
важных выборов (президентские выборы в США и России, выборы в Европарламент и
другие), она будет маркировать любой контент, сгенерированный искусственным
интеллектом. Посты в инстаграме и фейсбуке будут сопровождаться сообщениями о
том, что изображение или видео не настоящие, а созданные с помощью ИИ. Также
Meta планирует маркировать ИИ-контент, созданный не только в ее сервисах, но и
в продуктах других компаний, например Google или Microsoft. Нововведения обещают
воплотить в ближайшие месяцы. Однако настолько серьезно к борьбе с фейками
относятся не все соцсети.
"Для
украинцев самую большую опасность представляет телеграм, потому что по опросам
он является главным источником информации среди тех, кто читает
интернет-новости, соцсети. И проблема телеграма в том числе в том, что топовые
телеграм-каналы с большим количеством подписчиков – это частично или полностью
анонимные каналы, которые как раз не несут никакой ответственности за свой
контент. Они часто публикуют и какие-то лживые новости, недобросовестную
рекламу, "джинсу" от политиков. И у них минимальные стандарты
журналистики, они кардинально отличаются от традиционных СМИ. Украинцы начали
читать меньше новостей из России и про Россию. Но как раз проблема в том, что
даже украинские каналы, которые якобы и поддерживают Украину, и могут постить
те же сборы для военных, радоваться проукраинским новостям, публикуют
непроверенные новости. В этом как раз и ловушка: эти каналы уже после того, как
набрали доверия, набрали подписчиков, могут постить дипфейки, даже ту же сатиру
или шутки. Но при этом если они не будут это маркировать как несерьезный
контент, некоторые невнимательные пользователи воспримут их как правду", –
говорит Перевощиков.
Он
подчеркивает, что при этом в телеграме нет инструментов для противодействия
фейкам: "Можно пожаловаться из-за насилия, из-за распространения
наркотиков, порнографии, но именно на фейки там нельзя пожаловаться в отличие
от, например, фейсбука. Или в том же твиттере есть так называемый инструмент
Community Notes, то есть заметки сообщества, и когда публикуется какая-то
дезинформация, пользователи могут добавить к этой новости какой-то контекст:
"Осторожно! Тут приведены не все факты, и вот в чем состоит правда".
В телеграме ничего подобного нет, и как раз да, в этом заключается
опасность".
"Так
же, как и с телеграмом, в ютубе, к сожалению, нет инструментов для маркировки
фейкового контента, есть только опция "пожаловаться". И у нас нет
пока что инструментов для ограничения хотя бы их распространения в
соцсетях", – добавляет аналитик.
На
фоне выборов в Европарламент некоторые ИИ-компании пообещали, что будут
сотрудничать друг с другом, чтобы люди получали более достоверные новости.
Насколько это может повлиять на распространение фейков, прогнозировать сложно.
Никакой конкретики о том, как именно они будут противодействовать и какими
инструментами, не сообщали, подчеркивает аналитик. "Я вижу от них больше
заявлений, но меньше дел именно для создания какого-то продукта, например, для
тех же фактчекеров", – говорит аналитик проекта VoxCheck.
Что
же касается регулирования дипфейков на государственном уровне, то первый шаг в
этом направлении в марте 2024 года сделал Европарламент: он одобрил первый в
мире закон, регулирующий применение
искусственного интеллекта государствами. Он запрещает распознавание лиц в
режиме реального времени, запрещает создание "социальных рейтингов" и
полицейского "профилирования" с использованием ИИ, а также обязывает
производителей контента соблюдать закон об авторском праве и четко маркировать
все, что создано с использованием искусственного интеллекта. https://www.currenttime.tv/a/kak-raspoznat-deepfake/32862149.html
Nav komentāru:
Ierakstīt komentāru