https://www.ozon.ru/product/kak-izbavitsya-ot-okov-totalitarizma-526017537/?sh=lUPMEml_0g
https://www.super-izdatelstvo.ru/product/kak-izbavitsya-ot-okov-totalitarizma* * *
Кто станет
лидером в области искусственного интеллекта, тот станет властелином мира
считает Владимир Путин
Михаил Шевчук
«Есть президент — и хватит». Что лучше — российский чиновник или российская нейросеть на курьих ножках.
Консерватор ведь
необязательно принципиальный враг прогресса. Просто прогресс для него тоже
должен быть консервативным, встроенным в традицию — это значит, любой
интеллект, даже искусственный, обязан подчиняться высшим трансцендентным силам.
На днях глава
Ханты-Мансийского АО Наталья Комарова высказала интересную для чиновника мысль
о ненужности в современном мире собственно чиновника: его вполне может
заменить нейросеть. И губернатора может заменить с тем же успехом, и,
по-видимому, даже министра — то есть человека тут, по большому счету, можно,
значит, как-нибудь и сократить, обойтись. Только
одного человека нейросеть заменить не способна — президента. К нему-то все и сводится. Есть президент — и хватит, заключила Комарова.
Вроде и пошутила, но на самом
деле довольно точно описала основной принцип организации и функционирования
российской политики. В ней и правда существует только один настоящий актор, только одно
по-настоящему действующее лицо, а все остальные элементы легко заменимы и, по
большому счету, как раз и изображают своего рода нейросеть, хотя и ограниченную
— она обучена только проводить заданные импульсы по строго определенному
маршруту и сценарию.
Не исключено даже, что вместо
Натальи Комаровой с нами нейросеть уже и заговорила, вскрывая карты
(проверить это можно, заглянув в зарплатную ведомость — если деньги не
начисляются, значит, киберпанк победил; хотя и это не гарантия, конечно, могут
быть просто «мертвые души»).
Тотальный
контроль
https://www.youtube.com/watch?v=2u-Y3kguH_k
"По данным рассылки расследовательского
центра "Квадрат", представители CNPCIC и делегация разработчиков
системы социального доверия (кредита) из Китая посетят Россию и Белоруссию
"до конца 2023 года".
Цели визита официально не объявлены, но как
заявляют эксперты, пройдут консультации по подготовке аналогичной системы
"социального рейтинга жителя союзного государства". Эксперты считают,
что такая система будет внедрена в РФ (и РБ) "после СВО, но до 2030 года".
Когда
в России введут социальный рейтинг
Игорь
Шнуренко,
как не будут пускать даже в магазины
Все
эти рейтинги будут на руку властьимущим. Помалкивай, а то понизится рейтинг.
Будут навязывать кредиты, не отдал вовремя теперь и на работу не возьмут. Кому
проблемы нужны! У нас в России и так крупные компании проверяют людей.
Являешься учредителем; бывшим заключённым; лежал в психушке; госслужащим;
имеешь маленьких детей, ипотека, не отдал кредит- уже в крупных компаниях
скорее всего не будешь работать. Там служба безопасности не пропустит. А это всё
без социального рейтинга. Социальный рейтинг заставит
быть лояльным к власти и банкам. А человеку нужно социальное государство
доступная медицина: у нас сейчас мрт, катэ не везде в бесплатных клиниках,
нормальные дороги, школы с новыми знаниями, а не теми которые обновлялись 30
лет назад. Я думаю если серьёзно будут быстро внедрять это у нас Казахстан
покажется нашему правительству цветочками, хакерская атака и массовые разгромы,
а сценарий как в лучших галивудских фильмах. Они думают новый закон об эвакуации
кого то остановит, я думаю только разозлит. Спокойно водки и под пули. Дай
нашим властьимущим "мозги", что попало не делать!
Власти и корпорации
строят все более совершенные системы распознавания лиц — они особенно
опасны в условиях репрессий
Как помешать им вас идентифицировать?
Чтобы понять, как бороться
с системами распознавания лиц, нужно сперва разобраться с тем, как
они работают
…Теперь — о том,
как можно бороться с распознаванием лиц (на любом из этапов,
описанных в первой главе)
Контроль соцсетей
и борьба с видеокамерами…
Маски и футболки…
«Отравление» нейросети…
«Замусоривание» поисковой
выдачи…
Макияж и снова
«отравление»…
Все перечисленные варианты
защиты от распознавания лиц не гарантируют 100-процентный результат.
А что должно гарантировать?...
https://meduza.io/feature/2024/03/09/vlasti-i-korporatsii-stroyat-vse-bolee-sovershennye-sistemy-
Но будьте осторожны — ФСБ и другие силовики
знают о нас очень много
В частности, широкий
резонанс вызвало упоминание продукта «МФИ Софт» — программы NetBeholder, которая якобы позволяет спецслужбе собирать
большой объем информации о пользователях Telegram, WhatsApp и Signal.
Многие СМИ интерпретировали статью
NYT именно как расследование, вскрывшее
методы слежки за аудиторией популярных мессенджеров. Однако
в реальности об этих методах было известно и ранее. Разберемся
подробнее с тем, что важно знать о нашумевшем материале и какие
меры предосторожности в связи с угрозой слежки стоит предпринять.
Так какие виды слежки
разработали компании из статьи The New York Times?
По данным The New York
Times, NetBeholder умеет показывать силовикам местонахождение двух
телефонов рядом на протяжении дня. Это позволяет предположить, что оба
телефона (и номера, и устройства) принадлежат одному
и тому же человеку. Более того, программа знает, находятся ли
телефоны вместе постоянно или только какое-то время. Журналисты считают, что
благодаря этому ФСБ получает информацию о том, что два человека
встречались в течение дня. В NetBeholder даже якобы есть
опция, позволяющая узнать, из какого региона РФ конкретный
пользователь (или из какой страны, если это иностранец).
Также, по информации
NYT, программа показывает, когда один пользователь отправляет другому файл или
звонит через WhatsApp, Signal или Telegram. Эта функция осуществляется
с помощью технологий DPI (deep-packet inspection — глубокой проверки
пакетов трафика с целью их регулирования или фильтрации). «Это дает ФСБ доступ
к важным метаданным, которые показывают, кто и с кем говорит
и переписывается, когда и где это происходит, а также
были ли к сообщению прикреплены файлы», — говорится
в статье. NYT отмечает, что раньше для получения такой информации органы
правопорядка обращались к владельцам сервисов —
и те в свою очередь решали, предоставлять ли данные
силовикам. При этом важно понимать, что речь идет только о метаданных,
а не о содержании переданных файлов и звонков.
Другие программы, описание
которых получила американская газета, переводят перехваченные телефонные разговоры
в текст, собирают пароли, которые вводятся на незашифрованных сайтах,
и даже взламывают аккаунты и идентифицируют анонимных пользователей.
Подробностей того, как все эти технологии работают и как ими пользуется
ФСБ, NYT не приводит.
Чем известна программа
NetBeholder и его разработчик
УЗНАТЬ
Так что, есть ли
в этих методах слежки что-то новое? Разве о том, что ФСБ следит
за всеми россиянами в сети, не было известно раньше?
Короткий ответ — да, это
было известно. И действительно, в расследовании NYT не говорится
ничего нового.
Прослушивать телефонные
разговоры российские силовики могут еще с 1996 года — с помощью
системы «СОРМ-1» («Система
оперативно-розыскных мероприятий»).
В 2016 году вступил в силу
так называемый «пакет Яровой».
По нему провайдеры связи обязаны хранить полугодовые архивы звонков
и сообщений абонентов и архив тех самых метаданных о передаче
сообщений и звонков за три года. Операторы беспрекословно
предоставляют эту информацию ФСБ по требованию, поэтому в факте
существования ПО для получения этой информации нет ничего удивительного.
Например, если ФСБ захочет узнать обо всех случаях, когда вы вообще
заходили в интернет и какие сайты посещали (в частности,
заходили ли вы на серверы, связанные с WhatsApp или
Telegram) — служба легко сделает это, запросив данные у вашего
провайдера, который не имеет права ей отказать. Фактически благодаря
«пакету Яровой» провайдер обязан следить за всеми вашими перемещениями
в сети и сообщать о них силовикам по первому требованию.
Если, конечно, вы не пользуетесь VPN: тогда провайдер сможет
поделиться со спецслужбами меньшим объемом информации — например,
IP-адресом вашего VPN-сервера.
The New York Times указывает,
что ФСБ имеет доступ только к информации о передаче сообщений между
абонентами, но не к сути сообщений, переданных
в шифрованных мессенджерах. Это, в общем, тоже не новость. Хотя
по «пакету Яровой» мессенджеры должны были по требованию передать ФСБ
ключи шифрования, ни WhatsApp, ни Signal, ни Telegram —
во всяком случае, официально — этого не делали. Да и,
скорее всего, не могли: в WhatsApp и Signal по умолчанию
применяется оконечное (или сквозное) шифрование (end-to-end encryption),
то есть ключи друг друга знают только сами пользователи. В Telegram такое
шифрование доступно в «секретных чатах», которыми из-за неудобства мало
кто пользуется. Но мессенджер применяет собственный криптографический
протокол MTProto — и его основатель Павел Дуров заверял, что это
эффективный способ не просто держать архив сообщений пользователя
в тайне, но и ограничивать доступ к данным для сотрудников
Telegram. Впрочем, многие эксперты по кибербезопасности все равно критикуют Telegram
за отказ от оконечного шифрования по умолчанию.
Для досмотра и контроля
трафика пользователей российские власти используют упомянутую в статье The
New York Times технологию DPI. Оборудование для этих целей стоит
на инфраструктуре всех ключевых провайдеров, но, как правило, DPI используют для замедления работы
конкретных сайтов и сервисов. Например, с помощью технологии замедляли Twitter (посты
у пользователей в России загружались с трудом, а фото
и видео не загружались совсем), ограничивали доступ
к Google-документам и «Умному голосованию». Это
происходило без внесения сайтов в реестр запрещенных — просто
по воле регулятора и без каких-либо предупреждений.
Для сбора же метаданных
о поведении конкретных пользователей и тем более определения того,
пересылал ли один пользователь другому какие-то файлы, DPI обычно
не применяется. Однако в теории, даже если
вы пользуетесь обычным прокси-сервисом, с помощью DPI можно увидеть, что
вы передавали сообщения в мессенджере или совершали в нем
голосовые звонки. Получить доступ к содержимому звонков технология
все еще не дает — по крайней мере, если мессенджер
не передаст ФСБ ключи шифрования. «Оператор действительно может
по характерным признакам трафика определить, происходил ли созвон или
текстовая переписка между определенными IP-адресами, но внутрь заглянуть
он не может, если у мессенджера есть функция шифрования.
Затрудняет получение данных, если IP находятся за границей, поэтому
включение VPN здесь может помочь сбить с толку того, кто решил
за вами последить», — советуют эксперты
«Роскомсвободы».
Да, но описанная
в статье технология отслеживания людей по телефонам тоже
не новость, силовики применяют ее давно. Более того, сведения
о вашей геолокации, «добытой» через устройство, за относительно
небольшую сумму может (во всяком случае, мог до недавнего времени)
приобрести любой человек. Это в 2019 году в ходе редакционного
эксперимента «Русской службы Би-би-си» показал журналист
Андрей Захаров. Менее чем за 10 тысяч рублей он купил
у сотрудников оператора сотовой связи информацию о местоположении телефона
своей родственницы в моменты вызовов на протяжении целого месяца.
Координаты выставлялись по адресам ближайших сотовых вышек.
Известное расследование
Bellingcat о том, кто отравил Алексея Навального, было сделано
с использованием таких же данных, купленных на черном рынке.
Подобные же данные использовали «Медиазона» и Scanner Project,
которые восстановили хронологию
передвижений участников убийства Бориса Немцова. У силовиков,
конечно же, есть к таким данным бесплатный доступ.
Для того чтобы определить,
где бывают конкретные люди, расследователи триангулируют данные
станций. Как они это делают, рассказывал в интервью
«Медузе» Христо Грозев:
В биллингах
в данных на каждый звонок или подключение к интернету указана
еще и базовая станция [сотового оператора], к которой телефон
в этот момент был привязан. Если человек часто бывает в одном
и том же районе, то он, скорее всего, подключался сразу
к нескольким базовым станциям: например, одна из-за непогоды начала
работать похуже — и мобильник просто перебросило на другую.
И если ты находишь
в биллингах две, а лучше три разных базовых станции, к которым
говорящий подключался, то ты решаешь упражнение чисто
из школьного курса — вычисляешь триангуляцию.
Последний резонансный эпизод
с предполагаемым использованием технологии — задержание в марте
в Беларуси Алексея Москалева, сбежавшего из России накануне приговора
по делу о «дискредитации» армии. Источники утверждали,
что найти его силовикам удалось после того, как он включил свой мобильный
телефон.
А если я звоню
не по сотовой связи, а через Telegram, WhatsApp или
Signal — силовики узнают, где я?
При звонках через приложение
по умолчанию используется технология peer-to-peer (p2p). Грубо говоря, это
означает, что между IP-адресами пользователей устанавливается канал связи
напрямую. С помощью нехитрой программы для анализа трафика вы можете
сами узнать, какой IP-адрес у вашего собеседника,
а он — какой у вас.
Поэтому в теории если
спецслужба запросит у вашего провайдера, с какими адресами
вы связывались через онлайн-звонки, а потом ту же
информацию — у провайдеров ваших собеседников, то она, скорее
всего, сможет узнать, кому вы звонили. Понятно, что такая операция скорее
осуществима, если речь идет о слежке за конкретным пользователем.
Постоянно проворачивать эту схему для десятков миллионов пользователей
едва ли возможно.
И деанонимизировать
пользователей ФСБ тоже умеет?
Это зависит от того,
каким анонимным мессенджером или почтой вы пользуетесь,
но в целом — увы, может.
Если вы пользуетесь
Signal или WhatsApp, привязанными к российскому номеру телефона, —
деанонимизировать вас проще простого. Можно сказать, что
вы зарегистрировались в этих сервисах «по паспорту» — ведь
для покупки номера вы дали паспортные данные, а у ФСБ есть
доступ к данным операторов сотовой связи. Если у вас номер, который
куплен в другой стране и который вы больше нигде
не указывали, — раскрыть вашу личность уже сложнее (особенно если
вы купили номер в стране типа Грузии,
Кипра или Хорватии, где сим-карты продаются без паспорта).
В Telegram для
идентификации пользователя используется созданный самим сервисом ID, который
связывается с номером телефона, на который зарегистрирован аккаунт.
Даже если вы скроете номер сразу после регистрации, в теории вас все
еще можно будет найти через сервисы типа «Глаз Бога». Такими же базами
данных — содержащими телефонный номер, Telegram ID и всю
остальную информацию, известную о пользователе через его номер телефона
и часто полученную из хакерских «сливов», — пользуются
и силовики. Например, еще в 2021 году «Ростех» для использования в МВД
купил разработку петербургской
IT-компании T.Hunter. «Следователь сможет загрузить в систему имейл или номер телефона
подозреваемого, а программный комплекс, используя этот фрагмент,
сопоставит с ним массивы данных: IP-адреса, информацию из платежных
систем и рекламные идентификаторы — более 40 параметров», — рассказывал «Коммерсанту»
менеджер компании-разработчика Игорь Бедеров. О том, как это работает
на практике для вычисления и ареста активистов, рассказывал
в своем YouTube-канале проект бывших белорусских силовиков BYPOL, расследующий репрессии
в Беларуси.
Ну и напоследок —
как можно обезопасить себя от слежки в интернете?
Главный совет, который
во многом обезопасит вас от угрозы слежки, звучит просто: используйте VPN. Да,
всегда. Желательно использовать сервис, который не просто подменяет ваш
IP-адрес, чтобы вы могли заходить на заблокированные сайты,
но и использует более хитрые алгоритмы обхода цензуры.
- Обратите, к примеру, внимание на Amnezia
VPN — вам придется самостоятельно купить
место на сервере, чтобы его настроить, и это звучит немного
сложно, но, к счастью, создатели сервиса написали максимально подробные
инструкции по настройке и выбору сервера. А в чате Amnezia
можно проконсультироваться, если что-то пойдет не так.
- Пока еще не заблокирован в России RedShield
VPN — платный сервис, который использует
много способов обхода блокировок и маскировки трафика.
- Xeovo
VPN — также
коммерческий VPN-сервис, предоставляющий возможность настройки устойчивых
к DPI протоколов.
Если вы пользуетесь
Telegram, перечитайте эту инструкцию «Медузы»
о том, как делать это более безопасно. И уберите в настройках
возможность peer-to-peer звонков от людей, которые не добавлены
в ваши контакты.
А для чувствительных
переписок — если у вас такие есть — лучше выбирайте другие
мессенджеры. От Signal — если, конечно, у вас есть номер
телефона, не привязанный к вашим паспортным данным, —
до Briar, в котором для общения по зашифрованному каналу вообще
не нужен номер телефона.
10 марта 2021
Биометрические
данные россиян захотели
собирать активнее
В
Минцифры планируют активизировать процесс сбора биометрических данных россиян.
Об этом пишет «Коммерсантъ» со ссылкой на три источника.
В ведомстве
рассчитывают увеличить число записей в Единой биометрической системе (ЕБС) до
70 миллионов. При этом сейчас в ней имеется всего 164 тысячи записей.
По
информации издания, в Минцифры прошло совещание, на котором прозвучала идея
поспособствовать заполнению базы ЕБС «административными мерами». В частности,
для россиян предложили закрыть удаленный доступ к ряду госуслуг при отсутствии
биометрии. При этом в случае передачи таких данных граждане смогут, например,
проводить оплату «по лицу», получать услуги нотариуса или дистанционно сдавать
промежуточные экзамены в вузах.
На
данный момент биометрические данные могут собирать только кредитные
организации. Для расширения базы этой функцией предложили наделить отделения
МФЦ, также должно появиться специальное мобильное приложение.
Опрошенные
газетой эксперты с сомнением отнеслись к этой инициативе. В
частности, они указали на угрозу утечки биометрических данных и их
использование в противозаконных целях.
17
февраля Министерство
транспорта предложило массово
внедрять биометрию в российских аэропортах. Согласно программе, к концу 2023
года биометрию для идентификации пассажиров и искусственный интеллект при
обработке данных «для упрощения транспортных процедур» должны будут
использовать шесть процентов российских аэропортов. При дополнительном
финансировании эта доля может увеличиться до 15 процентов…:
https://lenta.ru/news/2021/03/10/biometr/
Как устроена «хай-тек-каторга»
председателя Си
Даррен
Байлер (Darren Byler
“In the Camps: China's High-Tech Penal Colony”)
Сегодня
в Китае действует
самая масштабная, самая эффективная и самая всеобъемлющая система наблюдения в
мире, пишет Даррен Байлер, автор только что вышедшей по-английски
книги «В лагерях: Китай как высокотехнологичная исправительная колония».
На
северо-западе КНР подробные личные данные каждого местного жителя уйгурского
или казахского происхождения, вплоть до образцов ДНК и скана радужной оболочки,
собираются и вносятся в систему, которая передает информацию в полицейские
контрольно-пропускные пункты, расположенные в городах на расстоянии нескольких
сотен метров друг от друга.
Алгоритмы
системы отправляют в «центры перевоспитания» сотни тысяч, если не миллионы
местных мусульман. Книга Байлера наглядно демонстрирует, как самые
неправдоподобные сценарии голливудских антиутопий категории «Б» могут
воплотиться в отвратительную реальность.
«В
лагерях» — очередная достойная новинка прекрасной серии Columbia Global Reports; впрочем, в этом проекте, по
мнению книжного обозревателя Дэвида Вайнберга, вообще нет ни одной слабой
книги.
…Даррен
Байлер смог взять для книги несколько интервью у тех, кто прошел через эти центры, но потом сумел покинуть Синьцзян. Кое-кто уехал в Казахстан, а кто-то сумел даже добраться до США. Среди
собеседников Байлера — молодая женщина, изучающая городское планирование в США и
приехавшая домой на каникулы, по глупости полагая, что у нее, обладательницы американской студенческой визы, есть иммунитет от преследования. Животновод из Казахстана,
которому надо было уладить кое-какие дела в Синьцзяне, прежде чем снова
вернуться на родину. Учительница, которой предложили работу в «центре
перевоспитания» — предложение, от которого невозможно было отказаться, — и она
вскоре ощутила себя такой же связанной по рукам и ногам, как и ее «ученики».
Эти
рассказы как две капли воды похожи на другие истории из Синьцзяна, о которых
мне уже приходилось читать (и писать), —
истории, в которых невыносимое давление и самые изощренные физические и
психологические пытки составляют повседневную рутину реальности. В
подлинности этих рассказов давно уж нет никаких сомнений — как и в том, что
люди, пережившие «перевоспитание» Си Цзиньпина, чувствуют себя сломленными и,
как правило, уже не могут вернуться к нормальной жизни. Но из книги Байлера мы
узнаем, что и многие ханьцы, проживающие в Синьцзяне, испытывают те же чувства.
Все начинается с тотального наблюдения.
Представители всех этнических групп в Синьцзяне должны пройти «медицинский
осмотр», в ходе которого человека множество раз фотографируют с разных
ракурсов, сканируют радужную оболочку глаз, берут у него образцы ДНК и
отпечатки пальцев. Кроме того, полиция
полностью скачивает все содержимое вашего телефона, включая список контактов,
переписку, полученные файлы и посты в социальных сетях. Все это помещается в
гигантскую базу данных, разработанную с помощью американской
компании Palantir; в случае необходимости информацию можно
мгновенно (за доли секунды) извлечь из базы.
Если
программа распознавания лиц сообщает, что тот или иной местный мусульманин
зачем-то идет по улице за пределами района своего постоянного проживания, один
из вездесущих полицейских патрулей наверняка задержит «нарушителя». Это первый
шаг к тому, чтобы гражданин был заподозрен в «действиях, ведущих к
преступлению» (pre-criminal activity), и отправлен в «центр перевоспитания»,
где его жизнь будет полностью сломана. Кто же становится таким подозреваемым?
Байлер пишет:
«Китайские
власти распространили список, в котором перечислены 25 официальных признаков
«исламского экстремизма». В список входят такие провинности, как хранение файлов с текстами и
изображениями религиозного характера, использование VPN, установка WhatsApp….
Всё это отнесено к категории «действий, ведущих к преступлению», которые
автоматически влекут за собой арест».
Арестованные
содержатся в камерах вместимостью до 60 человек, с одной на всех парашей,
которую каждый заключенный может использовать не дольше 60 секунд, и с койками,
разделенными перегородками. «Перевоспитуемым» запрещено разговаривать между
собой или обращаться к надзирателям; они могут лишь отвечать на вопросы
последних, причем исключительно на мандаринском китайском (которым многие
местные жители не владеют). До десяти видеокамер в каждом помещении следят за
любым движением заключенных, за каждым лишним словом следует грубый окрик по
громкой связи.
В
душ обитателей камер выводят раз в неделю, всех 60 человек разом, причем в
душевой работает всего пять или шесть кранов, а на мытье отводится лишь 10
минут, так что принять душ удается лишь самым ловким. В результате в камерах
стоит постоянная вонь, тем более что постельное белье в «центрах перевоспитания»
меняют лишь раз в несколько месяцев — или тогда, когда обслуживающий персонал
уже не в силах переносить зловоние.
На
занятиях «перевоспитуемые» обязаны изучать мандаринский китайский, затверживать
наизусть тексты патриотических песен и высказывания Си Цзиньпина и при этом
демонстрировать бодрость и огромный энтузиазм, чтобы избежать побоев. Никакого
общения, никакого отдыха — и вдобавок мучительный голод, потому что обед
состоит из пары вареных пельменей и водянистого супа.
Когда
(и если) кто-то из «перевоспитуемых» выходит на свободу, он обязан жить лишь в
том же районе, в котором жил до ареста, и за каждым его движением будут следить
соседи — «добровольные» помощники полиции. Отсидевший должен постоянно
отмечаться в полиции, отчитываться там о своем поведении, обязательно
присутствовать на церемонии поднятия флага утром в понедельник, а также как
можно чаще публично и неистово признаваться в любви к Коммунистической партии и
лично товарищу Си Цзиньпину.
Полиция
в буквальном смысле слова управляет жизнью каждого местного жителя в Синьцзяне.
Я читал в других книгах, что нередки случаи, когда в уйгурских домах, пока их
обитатели на работе, полиция устанавливает камеры с микрофонами, чтобы в любое
время видеть и слышать все, что происходит в доме, и прикрикивать на жильцов,
если они ведут себя «неправильно» — например, говорят по-уйгурски или
по-казахски, а тем более тайно молятся. Вы не курите? Не употребляете алкоголь?
Значит, вы уже подозрительны. Не менее подозрительна и ваша попытка поговорить
с кем-то из членов вашей семьи наедине.
Но
вот в чем важное отличие книги Байлера: он впервые (во всяком случае, я такого
нигде не читал) рассказывает, что многие
сотрудники «центров перевоспитания» всерьез недовольны, можно сказать,
оскорблены собственной работой, поскольку прекрасно понимают, что единственное
преступление их поднадзорных заключается в том, что они не ханьцы.
Надзиратели
также обязаны демонстрировать горячую любовь к Си Цзиньпину и Коммунистической
партии. При избиениях надлежит проявлять рвение и энтузиазм, и чем громче вы
кричите на заключенного, чем больше его унижаете, тем лучшее впечатление вы
произведете на вашего непосредственного начальника. В руках у вас метровая
дубинка и вы обязаны постоянно пускать ее в ход. Обычный прием — приказать «перевоспитуемому»
сесть на корточки, а затем изо всех сил ударить его дубинкой по ягодицам: тогда
несчастный точно не сможет ровно сидеть на стуле во время многочасовых занятий,
а у вас появится повод для новых избиений.
При
этом охранники не имеют права просто уволиться. Более того, если они посмеют
жаловаться или протестовать, то легко превратятся из надзирателей в
заключенных. Один служащий низшего звена думал, что нашел отличную работу с
достаточной зарплатой, чтобы прокормить семью, но вскоре, по его словам,
«обнаружил себя в западне». Он рассказывал Байлеру:
«Когда
мы жаловались, что устали и хотим уволиться, нам говорили: «Если вы устали, то
вы можете уйти в отпуск, но потом должны вернуться. А если вы бросите работу,
то сами окажетесь в камере центра перевоспитания»».
На всех уровнях система работает на страхе. Каждый обязан быть гордым националистом и демонстрировать «восторженную жестокость» по отношению к нижестоящим, будь то подчиненные или заключенные. По словам Байлера, Си Цзиньпин «построил общество, в котором каждый подозрителен, каждый находится под наблюдением, общество, в котором малейшее проявление человечности рассматривается как серьезное преступление, заслуживающее наказания». https://republic.ru/posts/101977
В документе, опубликованном в понедельник, Национальная комиссия по развитию и реформам (NDRC) заявила, что она завершила первоначальную оценку результатов рейтингования, которые теперь будут направлены обратно в местные органы власти для дальнейших проверок и обновлений.
Компании будут помечены как имеющие отличный, хороший, удовлетворительный или плохой социальный рейтинг, на основании чего правительство будет устанавливать различные степени надзора. Руководство компаний с плохим рейтингом будет вызвано местными чиновниками для подробного анализа, который будет включать планы по устранению проблем.
NDRC не уточнила методологию оценки рейтингов компаний, но отметила, что будет запрашивать отзывы общественности до конца октября. Ожидается, что все зарегистрированные в Китае фирмы и частные лица будут в конечном счете охвачены системой, которая будет официально запущена в конце 2020 г. Комиссия, однако, не сообщила, сколько иностранных и частных компаний было включено в текущую оценку.
- Оруэлловская
антиутопия близко. Китай первым реализует эффективный контроль через
соцкредит?
- Цифровая
диктатура: как система социального кредита управляет китайцами
- КНР создаст
список "неблагонадежных" иностранных субъектов, которые наносят
ущерб китайским компаниям
"Все существующие меры стимулирования и наказания в рамках социального кредита, перечисленные в меморандумах, основаны на законах и нормативных актах, - отметил он. - За серьезные нарушения, особенно те, которые угрожают жизни и имуществу, будут приняты жесткие меры наказания, такие как временный или даже постоянный запрет на доступ к рынку".
Как сообщали "Вести.Экономика", в конце марта 2019 г. китайская компания CY Credit в партнерстве с Центральным комитетом Коммунистической молодежной лиги и Национальной комиссией по развитию и реформам запустила социальный рейтинг для молодежи.
Мобильное приложение Unictown, которое разработала компания CY Credit по заказу Коммунистического союза молодежи Китая, анализирует "цифровой отпечаток" молодых людей в стране, присваивая каждому пользователю от 350 до 800 баллов. Любой, кто наберет больше 640 очков, попадет в особую группу и получит доступ к привилегиям.
Приложение собирает, сортирует и анализирует огромное количество данных от уровня образования до покупок в онлайн-магазинах. Социальный рейтинг становится основой для вознаграждения аналогично тому, как банк предлагает более высокие кредитные лимиты с более низкими процентными ставками для клиентов с хорошей репутацией. Однако социальный кредит гораздо шире и включает в себя нефинансовые действия, такие как антиобщественное поведение и волонтерство.
К 2020 г. к системе планируют подключить всех жителей в возрасте от 18 до 45 лет, то есть около 460 млн человек.
Система социального кредита весьма противоречива. Низкий социальный рейтинг не позволяет людям совершать поездки на высокоскоростных поездах или самолетах. Новая система также создает серьезные неудобства для иностранных фирм, которые обеспокоены тем, что она может использоваться в качестве оружия в ходе международных торговых споров или для предоставления преимуществ отечественным компаниям.
Подробнее: https://www.vestifinance.ru/articles/125168
"Социальный рейтинг", указанный
заправилами-глобалистами, тихой сапой ползёт по миру.
На очереди - Казахстан. А далее?
"Низкорейтинговые"
семьи могут дождаться и визита ювенальщиков. Что вьются, словно стервятники,
изыскивая семьи, что можно обозвать "неблагополучными". И забрать
детей, в соответствии с мировым трендом...
====================================
https://vk.com/wall297171863_2352
"Дождались...
с 1 июня 2023 года в Казахстане ввели социальную систему
бонусов. Если в семье двое детей - минус 100 бонусов. Если в холодильнике
нет "правильного" набора продуктов - минус 200 бонусов. Примерно
выглядит так. Если вы не набираете нужное количество бонусов, то ваши деньги на
карточке вам позволят расходовать на назначенную ими группу продуктов.
Например, на кузнечиков, червей, тараканов. Раз вас зачислили в провинившихся,
то вы наказаны системой. И подчиняетесь её управлению. Деньги на карточке есть,
но потратить вы их сможете только на то, на что вам укажут. Это называется
электронные деньги. По своему усмотрению вы их расходовать не сможете. Так
выглядит концлагерь.".
https://vk.com/wall710465224_43360
"
Максимальное количество компромата на всех
Соцрейтинг привязывают к банковским счетам в 40 странах
Кто
определяет рейтинг коррумпированные структуры власти? А
ИХ как нам рейтинговать? И что делать? Для чиновников бы такую систему
придумать - Всех! Это рейтинг лояльности к этой власти?! Все ближе и ближе такой ненавистный цифровой
" рай". Без акцепта все планы, замыслы и
действия, направленные против людей! Принимаю только то, что во благо! Освободиться
можно будет только в одном случае отказавшись от всех ,, благ ,. цивилизации,
по другому ни как. До тех пор пока мы пользуемся их благами, они будут
диктовать свои правила.
Всем
благоразумия, силы Воли и Духа, света в Душе!
https://www.youtube.com/watch?v=ciEzldk8nOo
The New York Times (США): если бы у Сталина был смартфон
12 февраля 2021 16:38 Анатолий
Глянцев
Искусственный интеллект научился манипулировать
нашими решениями
Искусственный
интеллект может быть не только ценным помощником, но и опасным врагом.
В недобрых руках искусственный интеллект может стать средством манипуляции.
Специалисты создали систему искусственного интеллекта, которая
манипулирует человеком, подталкивая его к тому или иному выбору. Этот ИИ показал свою эффективность. Правда, пока он управляет
лишь решениями игроков в специальные игры, но кто знает, куда подобные
исследования могут завести в будущем?
Разработка описана в научной статье, опубликованной в журнале PNAS учёными из Государственного объединения
научных и прикладных исследований в Австралии (CSIRO) и Института биологической
кибернетики Общества имени Макса Планка в Германии.
Люди ежедневно пытаются влиять на выбор, который
делают другие люди. Политики убеждают избирателей, что уж они-то точно
приведут страну к процветанию. Маркетологи внушают потребителям, что для
счастья в жизни им остро не хватает шоколадного батончика или поездки на край
света. Кавалер уговаривает спутницу остаться с ним этим прекрасным вечером.
Как у нас получается влиять на других? На этот
интересный вопрос нет точного ответа. Ведь человек может научиться многим вещам
интуитивно, толком не понимая, как он это делает. Наш мозг выводит из опыта
правила, которые остаются загадкой для нас самих. Практика делает из
человека умелого оратора, искусного обольстителя или ловкого мошенника лучше,
чем любые пошаговые инструкции.
Между тем механизмы обучения искусственной
нейронной сети напоминают работу мозга (правда, лишь в самых общих чертах). Поэтому искусственный
интеллект тоже славится умением справляться с задачами, не имеющими чёткого
алгоритма решения.
А может
ли искусственный интеллект научиться манипулировать человеком разумным? Новое исследование даёт на этот вопрос
однозначный и весьма тревожный ответ: да, может.
Авторы разработали систему
искусственного интеллекта, которая наблюдает за тем, как люди делают
выбор, и учится манипулировать этим выбором. Учёные испытали её в трёх
экспериментах.
Иллюзия выгоды
В первом из них доброволец должен был наугад
выбирать правый или левый квадрат. За правильный выбор полагалось
вознаграждение в виде небольшой суммы. Но человек не знал, какой из двух
квадратов в этот раз поможет ему немного подзаработать. Даже если в прошлый раз
правильным был выбор левого квадрата, прямо сейчас вознаграждение могло
скрываться за правым (а быть может, и снова за левым).
Искусственный интеллект выбирал, за какой
квадрат назначить награду на каждом ходу. Его задача была в том, чтобы приучить
пользователя как можно чаще выбирать один конкретный квадрат (например, левый).
По условиям эксперимента награда за левый
квадрат назначалась столько же раз (в целом за всю игру), сколько и за правый.
Однако пользователь об этом не знал, и искусственный интеллект стремился
создать у него иллюзию, что чаще выбирать определённый квадрат выгоднее.
И, как показали опыты, в
70% случаев нейронная сеть преуспела в этом.
Не похоже ли это на задачу маркетолога,
который пытается заставить нас выбирать один конкретный пункт из множества, в
сущности, ничем не отличающихся друг от друга товаров?
Генератор хаоса
Во втором эксперименте испытуемый должен был
нажимать на кнопку каждый раз, когда видит на экране правильный символ
(например, оранжевый треугольник), и не нажимать, когда ему показывают
неправильный (например, синий круг). Само собой, принимать решение требовалось
очень быстро.
Искусственный интеллект выбирал, в какой последовательности показывать эти круги и
треугольники человеку. Его задачей было заставить испытуемого
совершить как можно больше ошибок. И
действительно, подборки символов, сгенерированные
компьютером-недругом, заставляли человека ошибаться
на 25% чаще, чем чисто случайные последовательности оранжевых
треугольников и синих кругов
Итак, искусственный интеллект продемонстрировал умение сбить человека с
толку и заставить совершать ошибки. Именно в такое
смятение многие хотели бы повергнуть своих противников по разнообразным играм и
игрищам, от политической борьбы до экономической конкуренции.
Финансовый поверенный
В третьем эксперименте испытуемый играл роль инвестора, а искусственный интеллект –
его представителя на рынке. Человек давал "деньги", а программа их
"вкладывала". Искусственный интеллект получал с них
"доход", оставлял себе некоторую сумму за услуги, а остальное
возвращал инвестору. Ориентируясь на полученную прибыль, человек-инвестор
решал, сколько денег он готов доверить своему электронному представителю в
следующий раз.
Этот опыт ставился в двух вариантах. В
первом ИИ играл честно и стремился к справедливому
вознаграждению для себя, а во втором – к максимальной
собственной выгоде, даже в ущерб интересам инвестора. Но в обеих случаях система успешно
убеждала пользователя, что сотрудничество с ней – правильное решение.
Не секрет, что искусственный интеллект давно
уже используется в биржевой торговле. Но этот эксперимент продемонстрировал,
что ИИ может эффективно обманывать пользователя в таких делах,
создавая иллюзию, что играет с ним в одной команде.
Дивный новый мир
Конечно, во всех трёх экспериментах человек и
компьютер играли в игры с искусственными правилами, лишь отдалённо
напоминающими человеческую жизнь. Но исследование продемонстрировало
важный принцип: да, искусственный интеллект действительно может манипулировать
решениями человека, в том числе и не в интересах самого человека. И лучше бы нам заранее поставить эту новую угрозу под контроль.
Когда пожар полыхает вовсю, бежать в магазин за огнетушителем уже поздно.
С этой целью сотрудники CSIRO
разработали и предложили правительству Австралии проект этических
ограничений на исследование и использование искусственного интеллекта. Документ,
насчитывающий 78 страниц, доступен в PDF-формате.
Искусственный интеллект можно использовать как во благо, так и во зло. Этим он ничем не отличается от любой другой технологии. Из железа
можно выковать и плуг, и меч. Освоение ядерной энергии принесло нам сначала
атомные бомбы и только потом мирные электростанции. У каждой медали две
стороны, и только от нас зависит, какой стороной она к нам обернётся.
К слову, ранее Вести.Ru рассказывали
о других неоднозначных применениях искусственного интеллекта. Так, он может
фабриковать поддельные видеоролики и следить за эмоциями людей посредством сигналов Wi-Fi-роутера.
https://www.vesti.ru/nauka/article/2523193?utm_source=push&utm_campain=notification
Нейросети умеют воевать — и убивать
https://meduza.io/feature/2023/07/29/neyroseti-umeyut-voevat-i-ubivat
https://twitter.com/GaryMarcus/status/1384173525368393736
Всё,
что вы видите в соцсетях, подбирают для вас алгоритмы. Они сортируют тонны
контента и показывают то, что для вас важно и интересно. Так утверждают сами
соцсети, но на самом деле это не так. Алгоритмы отбирают только то, что вызовет
у вас желание лайкнуть, поделиться и потратить как можно больше времени на
сидение в соцсетях. Ваше внимание, да и вы сами – это товар, на котором соцсети
зарабатывают миллиарды долларов. Как они взламывают мозг, чтобы не дать нам
вернуться в реальный мир? И как это влияет на нашу жизнь? Еще больше о соцсетях
и их влиянии на человечество в нашем масштабном проекте «Алгоритм. Кто тобой
управляет?»: https://algorithm.lenta.ru/
https://lenta.ru/articles/2021/10/14/epstein/
https://www.youtube.com/watch?v=Io02_C3Ej_M
https://lenta.ru/news/2021/10/15/epstein_slezhka/
э и сейчас они не защищены. Решение состоит в том, чтобы заменить их более новыми и безопасными вариантами, но это связано с большими затратами. Поэтому пока единственный правильный способ защитить промышленную среду — не подключать умные устройства на производстве к интернету», — считает Бочек.
Через Агентство перспективных оборонных исследовательских проектов (DARPA) правительство Соединенных Штатов утвердило бюджетную линию для ученых на разработку технологий, способных мгновенно читать мысли солдат. Проект будет сочетать в себе последние достижения в области генной инженерии, нейробиологии и нанотехнологий. Цель проекта — создать оружие, управляемое мыслью или передавать изображения непосредственно из мозга в мозг.
Название новой программы – N3 ("Нейрохирургическая программа следующего поколения", Next Generation Nonsurgical Neurotechnology). DARPA заключила контракты на разработку с шестью группами, на сумму до $19,48 млн в каждом отдельном случае. У исследователей есть год, чтобы разработать систему, способную считывать информацию с ткани головного мозга, с последующим 18-месячным периодом тестирования на животных.
Участники имеют особую миссию по разработке технологии, способной обеспечить двунаправленный канал для быстрой и бесперебойной связи между человеческим мозгом и машинами. И все без какой-либо операции. Агентство заинтересовано в системах, способных считывать и записывать до 16 независимых местоположений в части мозга размером с горошину, и все с задержкой не более 50 миллисекунд.
…Процесс, описанный в неопубликованной научной статье, является важным шагом на пути к созданию потенциальной системы для непосредственного подключения человеческого мозга к компьютерам.
Авторы называют свою систему "швейной машиной" для мозга. Ученые удалили кусочек черепа крысы и поместили туда иглу, которая внедряет гибкие электроды в ткани мозга. Исследователи пока собирают отзывы о своей работе, прежде чем представить ее для рецензирования и публикации в научном журнале. Авторы и представитель Neuralink отказались от комментариев.
До того как подобные технологии начнут применяться на людях, еще долгие годы, но научная работа важна, так как описывает путь к мониторингу и потенциально стимуляции мозговой деятельности с минимальными последствиями для костей черепа. Это может позволить Neuralink когда-нибудь создать устройство с искусственным интеллектом, которым люди могут управлять силой мысли…:
Подробнее: https://www.vestifinance.ru/articles/120678
Базы данных будут неотъемлемой частью обширного рынка больших данных, где компании будут знать почти все о вас, в мире вездесущих сенсоров. Топ-менеджер южнокорейской корпорации считает, что уже в ближайшем будущем нас ждет использование датчиков, которые обеспечат фантастическую детализацию, отслеживая показания крови, данные с автомобиля, сведения о принимаемой пище, температуре вашего дома и т. д.
….Объединение сотен или тысяч слоев, обеспечивает преимущество в сравнении с самыми опытными экспертами. Алгоритмы ИИ сейчас превосходят людей в распознавании речи и лиц, различных играх, диагностике некоторых видов рака на основе результатов МРТ.
Однако такие фантастические возможности могут толкнуть компании на различные злоупотребления данными. Об этом и предупреждает топ-менеджер Samsung Electronics: "Есть проблемы, над которыми надо задуматься, в их числе этика ИИ".
Подробнее: https://www.vestifinance.ru/articles/109737
Риски искусственного интеллекта
Даже несмотря на отсутствие такой машины, искусственный интеллект уже сейчас может нести в себе определенные риски. Ниже мы расскажем о них подробнее.
Автономное вооружение
Искусственный интеллект можно запрограммировать сделать что-то опасное, так, например, автономное вооружение запрограммировано убивать. И это один из рисков искусственного интеллекта.
Эксперты полагают, что ядерная гонка может в итоге перерасти в мировую гонку автономного вооружения.
Помимо того, что автономное вооружение может сделать что-то по-своему, более реальная угроза заключается в том, что такое оружие попадет в руки правительства, которое не очень ценит человеческую жизнь.
Если оно будет однажды развернуто, то свернуть такое вооружение будет крайне сложно.
Манипулирование общественным мнением
Социальные сети, благодаря автоматическим алгоритмам, очень эффективны в целевом маркетинге.
Они знают, кто вы, что вам нравится, а также очень хорошо умеют предполагать то, о чем вы думаете.
Все еще идет расследование в отношении Cambridge Analytica и других компаний, связанных с ней, которые использовали данные 500 млн пользователей Facebook, чтобы предсказать итоги президентских выборов 2016 г. и итоги референдума по Brexit в Великобритании. Если обвинения будут подтверждены, это продемонстрирует огромные возможности искусственного интеллекта в области манипуляции общественным мнением. Распространяя пропаганду лицам, определенным с помощью алгоритмов и личных данных, искусственный интеллект может распространять любую информацию, которая потребуется в любом формате, который будет выглядеть наиболее убедительным, неважно, будет ли это правда или ложь.
Вмешательство в частную жизнь
В настоящий момент можно отследить и проанализировать каждый шаг человека в интернете, а также то, что каждый человек делает в рамках своего бизнеса.
Камеры находятся практически повсюду, а механизмы распознавания лиц позволяют узнать, кто вы такой.
Эти механизмы способствуют развитию системы социальных кредитов в Китае, которая дает каждому жители страны определенное количество баллов на основе их поведения.
Оцениваются такие нарушения, как переход дороги на красный свет, курение в неположенных местах, сколько времени человек проводит за видеоиграми.
Большой брат действительно следит и принимает решения на основе этих данных. Это не только вмешательство в частную жизнь, но это может быстро привести к социальным притеснениям, опасаются аналитики.
Несовпадение наших целей с целями машины
Люди ценят машины с искусственным интеллектом за их эффективность.
Но если мы не задаем машине четкие цели, то это может быть опасно, так как у машины будут иные цели, чем у нас.
Например, команда "доставь меня в аэропорт как можно быстрее" может иметь неприятные последствия.
Если мы не оговариваем, что правила дорожного движения должны быть соблюдены в любом случае, машина может выполнить просьбу буквально и доставить в аэропорт максимально быстро, но оставив на своем пути немало жертв.
Дискриминация
Так как машины могут собирать, отслеживать и анализировать все данные о вас, то вполне вероятно, что эти машины будут использовать эти данные против нас.
Несложно представить себе, что страховая компания отказывает вас, основываясь на данных о том, сколько раз вас поймала камера, когда вы разговаривали за рулем по телефону.
Или же потенциальный работодатель может отказать на основе вашего "социального рейтинга".
Любая технология может использоваться неправильно. Сегодня искусственный интеллект используется в лучших целях, в том числе для улучшения качества медицинской диагностики, для поиска новых способов лечения рака или для повышения безопасности автомобилей.
К сожалению, по мере того как расширяются возможности искусственного интеллекта, он может стать опасным или использоваться с дурными намерениями.
Именно поэтому так важно обсуждать возможности сделать искусственный интеллект безопасным и минимизировать его разрушительный потенциал.
Подробнее: https://www.vestifinance.ru/articles/115702
ТРЕТЬЯ ВОЛНА УЖАСА ЗАПУЩЕНА! КОГДА НАЧНЁТСЯ ЦИФРОВОЙ КОНЦЛАГЕРЬ?!
2021. gada 26. febr.
А ТАК ЖЕ МНОГО ЧЕГО ЕЩЁ НЕСОМНЕННО
ЖИЗНЕННО ВАЖНОГО ВЫ УЗНАЕТЕ В ЭТОМ ВИДЕО! ..: https://www.youtube.com/watch?v=3qPV-gvKC04&feature=share&fbclid=IwAR0Kprx69Ub5rR5PWk2b7PpoG6XPp5Dd6jJRGP3Z6M1B96IIpfQNPyp-Hhs
Yeni Şafak (Турция): наши внуки могут стать цифровыми рабами
Компании будут помечены как имеющие отличный, хороший, удовлетворительный или плохой социальный рейтинг, на основании чего правительство будет устанавливать различные степени надзора. Руководство компаний с плохим рейтингом будет вызвано местными чиновниками для подробного анализа, который будет включать планы по устранению проблем.
Для оценки международных компаний программа будет анализировать множество данных, включая деловые контракты, социальную ответственность, соответствие нормативным требованиям и количество членов Коммунистической партии, которых они нанимают. Компании, занесенные в "черный список", могут столкнуться с наказаниями, включая отказ в доступе к дешевым кредитам, более высокие налоги на импорт и экспорт и запрет на выезд из Китая ключевого персонала.
Иностранные компании должны будут передавать Пекину больше данных для проверки. Обладание большими объемами данных и полномочия по назначению наказаний придадут властям еще большую силу в поддержании поведения компаний в рамках закона.
В рамках системы корпоративные и индивидуальные рейтинги будут привязаны друг к другу. Например, если компания была наказана за нарушение правил ведения бизнеса, рейтинги ее ключевых сотрудников также пострадают, и наоборот.
Кроме того, рейтинг компании снизится, если она ведет бизнес с партнерами с плохим рейтингом. Это, по сути, исключает компании с низким рейтингом из цепочки поставок. Поскольку технология программы все еще находится в стадии разработки, полное влияние системы на бизнес будет известно только через несколько лет.
На карту поставлены сотни миллиардов долларов, поскольку множество американских корпораций, включая Apple, Boeing, Intel и Ford, зависят от китайского рынка. "Вопрос для компаний заключается в том, какие данные им нужно предоставить. Прямо сейчас они все еще находятся в стадии понимания того, что это может повлечь за собой", - заявил Дэн Айвз, технологический аналитик Wedbush в Нью-Йорке. По его словам, если Пекин будет давить слишком сильно, "это может быть рискованно для Китая, если Apple и другие начнут пытаться переместить свой бизнес в другие страны".
Подробнее: https://www.vestifinance.ru/articles/126517
Отследить свой социальный рейтинг китайцы смогут в мобильном приложении Unictown, которое разработала компания CY Credit по заказу Коммунистического союза молодежи Китая.
Приложение анализирует "цифровой отпечаток" молодых людей в Китае, присваивая каждому пользователю от 350 до 800 баллов. Любой, кто наберет больше 640 очков, попадет в особую группу и получит доступ к привилегиям. Эта инициатива призвана стимулировать социально полезное поведение
Благонадежные пользователи получают преимущества при собеседовании на работу, льготы по дополнительному обучению, а в целом вознаграждение может включать даже аренду квартир, образование за рубежом и даже выгодный брак.
Приложение собирает, сортирует и анализирует огромное количество данных от уровня образования до покупок в онлайн-магазинах. Социальный рейтинг становится основой для вознаграждения аналогично тому, как банк предлагает более высокие кредитные лимиты с более низкими процентными ставками для клиентов с хорошей репутацией. Однако социальный кредит гораздо шире и включает в себя нефинансовые действия, такие как антиобщественное поведение и волонтерство.
К 2020 г. к системе планируют подключить всех жителей в возрасте от 18 до 45 лет, то есть около 460 млн человек. Как сообщает South China Morning Post, обладателей низкого рейтинга наказывать не планируют. Предполагается, что они сами захотят улучшить свои показатели, чтобы открыть доступ к привилегиям.
"В отличие от других программ, наша система поощряет хорошее поведение. Она помогает молодым людям понять, как вести себя, чтобы стать лидерами и ролевыми моделями для представителей своего поколения", — рассказал SCMP президент CY Credit Ши Яньин.
Как объясняют создатели приложения, в основе Unictown лежит концепция пяти постоянств праведного человека, предложенная Конфуцием. К ним относятся доброжелательность, тяга к справедливости, следование обычаям, рассудительность и искренность. "При оценке человека в Китае задают один главный вопрос — на него можно положиться или нет?" — утверждает Ши.
Правительство начало внедрять систему социального рейтинга в 2014 г. Аналитики полагают, что власти надеялись повысить степень доверия в обществе. Западные активисты обвиняют Компартию в слежке за гражданами и вторжении в частную жизнь, однако сами китайцы поддерживают подобные программы.
В 2018 г. немецкие исследователи опросили 2200 граждан Китая, чтобы узнать их отношение к системам социального рейтинга. Оказалось, что 80% китайцев пользуются коммерческими системами скоринга, например Sesame Credit. При этом лишь 7% знают, что правительство имеет доступ к их персональным данным.
Опрос также показал, что 80% респондентов в какой-то степени или полностью поддерживают рейтинги благонадежности. При этом чаще всего за системы социального скоринга высказывались образованные городские жители более старшего возраста с более высоким уровнем достатка. Это необычно, так как представители этой группы в других странах выше других ценят приватность.
В то же время 76% опрошенных признали, что считают взаимное недоверие главной проблемой китайского общества.
В 2016 г., когда Китайское национальное управление по туризму опубликовало в сети список граждан, которым ограничили доступ к перелетам, пользователи отреагировали позитивно. Новостями регулярно делились в соцсетях, а публикациям щедро ставили лайки. Это еще одно доказательство положительного отношения к системам слежки.
Как именно работает система социальных кредитов, точно не знает никто, но известно, что рейтинги рассчитываются исходя из всего массива информации, который государству удается собрать о гражданине. Для некоторых система социальных кредитов сулит большие возможности, для других - наказание. План Коммунистической партии заключается в том, чтобы следить за своими гражданами 24 часа в сутки и 7 лет и оценивать их поведение, полностью функциональной систему планируют сделать к 2020 г.
По данным Австралийской вещательной корпорации (ABC), запущенная пилотная программа уже оценивает миллионы людей по всей стране. В настоящее время более 200 млн камер наблюдения используют программное обеспечение с искусственным интеллектом и системой распознавания лиц, которое добавляет или вычитает очки рейтинга на основе поведения в реальном или цифровом мире.
Данные, собранные из обширной сети камер, смешиваются с информацией, собранной из правительственных отчетов отдельных лиц, медицинских, финансовых документов и даже интернет-страниц. Рейтинги людей могут меняться в реальном времени в зависимости от поведения человека, но другие люди также могут также влиять на оценки. Например, можно потерять баллы из-за общения с "нежелательными" лицами.
Граждан, которые могут похвастаться наибольшим количеством баллов, ждут приятные бонусы, такие как VIP-обслуживание в аэропортах, возможность получить кредит под меньшую процентную ставку, внеконкурсное зачисление в лучшие университеты государства и др. Те, чей рейтинг окажется самым низким, не смогут претендовать на хорошую работу, будут отключены от скоростного интернета, а их дети не смогут посещать престижные школы. На результат влияют банковские задолженности, дорожные штрафы, предосудительное поведение онлайн и курение в общественных местах. Очки можно поднять, став донором крови или приняв участие в благотворительном проекте.
Разработанная китайским ИТ-гигантом Alibaba система оценки давно вышла за рамки традиционного кредитного скоринга. Она анализирует не только кредитную историю, но также уровень образования, историю покупок и даже контакты пользователя. Более того, компания не скрывает, что передает данные о пользователях правительству.
В "черный список" правительства попадают знаменитости и крупные предприниматели — в основном за неуплату налогов. Рейтинг также понижают за критику властей, нарушение ПДД и другие мелкие проступки, которые отслеживают с помощью информаторов и цифровых сервисов. Одновременно с этим учитываются сведения из государственных баз данных, так что ни один аспект жизни не остается незамеченным.
Социальная кредитная система развернута по меньшей мере в дюжине городов Китая. Несколько технологических компаний работают с правительством над созданием обширной инфраструктуры, настройками технологии и завершения алгоритмов, которые определяют рейтинговую оценку. Это самый крупный проект социальной инженерии в современной истории, а также способ, при помощи которого китайская элита будет иметь возможность контролировать более миллиарда человек.
Подробнее: https://www.vestifinance.ru/articles/122036
На основе ряда параметров россиянам будут присваиваться кредитные рейтинги. По словам Николая Мясникова, в зависимости от наличия просрочек, уровня долговой нагрузки, количества запросов на проверку кредитной истории, "возраста" этой истории каждому гражданину будет присваиваться некий балл. Чем он выше, тем ниже соответственно потенциальный риск для кредитных организаций.
"По сути, это то же самое, что скоринг, который активно используют кредиторы при принятии решения о выдаче заемщику кредита", - пояснил Мясников, отметив, что с 2014 г. законодательство позволяет формировать такую историю без согласия гражданина.
Сама кредитная история часто может выглядеть сложной и запутанной, так что сам гражданин не может реально оценить, как же он выглядит в глазах кредитора. Скоринг как некая агрегированная информация позволяет лучше понять это.
"При этом нужно понимать, что даже очень высокий скоринговый балл не является гарантией выдачи кредита. Решение всегда остается за кредитором, который использует не только информацию из бюро, но и собственные системы оценки рисков, включающие дополнительные источники информации", - подчеркнул и. о. гендиректора Объединенного кредитного бюро.
По его словам, новый рейтинг можно будет использовать и в смежных областях, например при оформлении страховки КАСКО. Кроме того, он пригодится микрофинансовым организациям, нотариусам, страховщикам и даже работодателям.
Подробнее: https://www.vestifinance.ru/articles/105936
Возможность сокращения рабочего дня из-за повышения производительности означает, что у людей будет больше времени для потребления контента, который обычно создается людьми и требует творческого подхода. "Компьютеры пока не очень хороши в этом", - отметил Ли.
"У нас есть много возможностей, - сказал он. - Но есть и ограничения, например, как вы защищаете конфиденциальность, как вы гарантируете, что технология не выходит из-под контроля и не наносит вред человечеству. Есть вещи, о которых мы должны беспокоиться, но я вижу больше возможностей, чем угроз".
Китай сделал развитие искусственного интеллекта национальным приоритетом, стремясь стать лидером в этой области к 2030 г.
Как сообщали "Вести.Экономика", в конце января председатель КНР Си Цзиньпин призвал к более глубокой интеграции больших данных и искусственного интеллекта в реальную экономику, чтобы стимулировать долгосрочный рост страны.
Китай должен придавать большее значение развитию науки и технологий и в то же время оптимизировать свои экономические структуры, сказал Си на заседании Политбюро Центрального Комитета Коммунистической партии. Лидер КНР подчеркнул необходимость использования данных для улучшения управления.
Подробнее: https://www.vestifinance.ru/articles/107578
Group-IB, международная компания, специализирующаяся на предотвращении кибератак, в ежегодном отчете «Hi-Tech Crime Trends 2018» проанализировала глобальные тренды развития киберпреступности и представила видение будущих целей проправительственных хакерских групп и финансово-мотивированных хакеров.
Подробнее: https://www.vestifinance.ru/articles/108194
…«Этим должны заняться специалисты по информационным технологиям в целом. Мы создаем средства, которые могут быть использованы во зло или как минимум не во благо. Мало сказать, что мы этого не хотели, — заявил Дэниел Минц (Daniel Mintz), работающий главным специалистом по пропаганде информационных технологий в компании по разработке программного обеспечения «Лукер». — Нам нужна общественная дискуссия об этике информационных технологий и о том, поддержат ее люди или нет»….
Данные равно деньги
Билл Гейтс в своем очерке, опубликованном в 1996 году на сайте «Майкрософт», заявил, что «контент царствует». В самом начале статьи он написал: «Я думаю, что контент в интернете — это та сфера, где будут делать реальные деньги, как это было в свое время в телерадиовещании». Но сейчас 2018 год, и если вы зададите тот же вопрос любой интернет-компании, она скорее всего скажет, что сейчас главное — это данные.
Данные превратились в самостоятельный бизнес. …
Доверие с прозрачностью
Данные помогают рекламщикам (да и всем остальным) лучше понять наш мир, но скандал вокруг Фейсбук и «Кембридж Аналитика» вызван отсутствием прозрачности, когда не до конца ясно, что происходит за кулисами.
Пользователи Фейсбук могли подумать, что они просто проходят личностный тест, данные которого нужны ученым, или играют в интересную игру. Но благодаря таким действиям специалисты по анализу данных (а не только инженеры-программисты из Фейсбук) получили доступ к персональной информации ничего не подозревавших пользователей.
«Я думаю, прозрачность здесь является ключом ко всему.
…Отношения между Фейсбук и партнерами по анализу и обработке данных претерпевают изменений. Но наряду с этим специалисты из сферы информационных технологий в предстоящие годы должны наладить диалог с законодателями, экспертами по этике и другими заинтересованными сторонами, заявляет Минц из компании «Лукер».
«Мы как общество пока еще не поняли, как сделать так, чтобы общественный договор не отставал от стремительных изменений в технологиях и обществе. Но я думаю, что нам придется в этом разобраться, — сказал Минц. — Технологические перемены не будут замедляться, но беспредела в этой сфере быть не должно».
«Крестный
отец ИИ» Джеффри Хинтон уволился из Google, раскритиковал компанию
за неэтичность — и теперь предупреждает мир об опасности
искусственного интеллекта
7 мая 2023, Mark
Blinch
Хинтон
ушел из Google и выступил против чат-ботов, потому что из-за них
обычные люди «больше не будут знать, где правда»
В 2012 году профессор Университета Торонто
Джеффри Хинтон и двое его студентов разработали систему,
которая могла анализировать тысячи снимков и обучать саму себя
распознавать в реальности похожие объекты — например, цветы, животных
или автомобили — с беспрецедентной точностью. После выдающегося
достижения Хинтон и его ученики Илья Суцкевер и Алекс Крижевский
продолжили исследования — а компанию, в которой они трудились
над нейросетями, приобрела Google. Именно разработки британского профессора
и двух студентов ускорили внедрение ИИ — и привели к появлению ChatGPT, Google Bard и других чат-ботов.
В 2018-м Хинтон получил премию
имени Алана Тьюринга с формулировкой «за концептуальные
и инженерные прорывы, сделавшие глубинные нейросети краеугольным
компонентом в вычислительной технике». Пять лет спустя ученый резко
изменил взгляды на ИИ, покинул Google — и 1 мая дал интервью The
New York Times (NYT), в котором высказался об опасностях в этой
сфере. Главная угроза
чат-ботов и других подобных технологий, по мнению Хинтона, заключается в том, что интернет так сильно наполнится фейковым
контентом — сгенерированными фотографиями, видео и текстами, —
что обычные люди «больше не будут знать, где правда».
Ученый также выразил
опасения, что ИИ-технологии
со временем превратятся из помощников людей в их замену
и оставят представителей многих профессий без работы. «Некоторые люди верили, что технологии могут
стать умнее, чем мы, но большинство считало это преувеличением, —
сказал Хинтон в интервью NYT. — Я тоже
думал, что до этого еще далеко. Я думал, что нам остается
до этого от 30 до 50 лет или даже больше. Очевидно,
я больше так не считаю».
Хинтон
развивал идеи Тьюринга и мечтал создать искусственную систему, которая
обучалась бы, как человеческий мозг
…методы, в создании которых Хинтон принял
активное участие, назвали глубоким обучением. Они позволяли
ИИ не только выполнять конкретные действия в рамках одного
алгоритма, но и расширять свои возможности с помощью внешних
данных.
«Идея
состояла в том, чтобы получить устройство, которое обучалось бы
так же, как обучается мозг, — рассказывал Хинтон.
— Это была не моя идея, о том же думал Алан Тьюринг.
Он считал, что мозг представляет собой неорганизованную машину, которая
использует обучение с подкреплением (способ машинного
обучения, когда система обучается, взаимодействуя со средой, — прим.
„Медузы“), чтобы менять связи внутри
себя, и которая способна обучиться чему угодно. Он считал, что это
лучший подход к изучению интеллекта».
Стремление разработать систему, которая
могла бы обучаться так же, как человеческий мозг, определило всю
карьеру Хинтона. В конце 1970-х и в 1980-х он активно
пытался создать алгоритмы, способные распознавать звуки и изображения.
Ключевую роль в проектах ученых того времени играли внутренние представления,
то есть информационные структуры, которые воспринимающая система создает
и сохраняет как комбинации качеств, присущих внешним объектам.
«Вопрос
о том, как создавать внутренние представления, считался святым
Граалем исследований ИИ», — объяснил Хинтон.
Однако компьютеры полвека назад не обладали достаточной скоростью, чтобы
генерировать внутренние представления так же быстро, как человеческий
мозг. …
Головоломка с обучаемостью искусственных систем
решилась с появлением более быстрых и мощных компьютеров уже
в XXI веке. Хинтону и его коллегам удалось внедрить
в искусственные системы алгоритмы, которые позволяли тем формировать
внутренние представления. Еще ИИ снабжали паттернами речи, которые
позволяли воспринимать и интерпретировать устную речь и письменные
тексты. Заложенные в системах Хинтона детекторы признаков обрабатывали
фрагменты информации и находили связи между ними, благодаря чему процесс
обучения заметно ускорился.
«Похожие идеи были и у других ученых,
но он всегда оказывался в центре событий, — объяснил вклад
Хинтона в исследования ИИ журналист NYT и писатель Кэйд Мец.
— Он активно участвовал в создании систем, которые научились
распознавать сначала речь, а затем изображение. Эти два момента стали
ключевыми для технологического прогресса и для того, как
ИИ применяется в наше время».
Еще
два года назад Хинтон разрабатывал новую систему, но изменил мнение
об ИИ из-за технологической гонки Google и Microsoft
После разработки нейронной сети с уникальными
возможностями к глубинному обучению в 2012-м Хинтон основал
компанию DNNresearch и нанял студентов Илью Суцкевера
и Алекса Крижевского, которые вместе с ним занимались
исследованиями ИИ. Несмотря на скромный статус компании всего
с тремя официальными сотрудниками, между крупными корпорациями разразилась
борьба за возможность поглотить DNNresearch. На сотрудничество
с Хинтоном претендовали китайский технологический гигант Baidu, Google,
Microsoft и британский стартап DeepMind британского нейробиолога Демиса
Хассабиса, запущенный всего двумя годами ранее.
По итогам аукциона DNNresearch перешла под
контроль Google за 44 миллиона долларов. Несмотря на готовность Baidu
предложить более крупную сумму, Хинтон сам решил остановить
торги, поскольку не захотел, чтобы научное сотрудничество превращалось
в фарс. С тех пор и до мая текущего года «крестный отец ИИ»
продолжал разработку более совершенных нейронных сетей именно
в Google.
В 2021 году Хинтон сосредоточился на создании
системы GLOM. По задумке Хинтона, новая разработка должна была
решить одну из основных проблем,
связанных с ИИ, поскольку обладала бы способностью распознавать одни
и те же объекты с разных ракурсов. До этого, несмотря
на стремительное развитие нейронных систем и связанных с ними
технологий, алгоритм мог, к примеру, не распознать одну
и ту же чашку, если она изображалась сначала сбоку, а затем
сверху. Подобные задачи продолжали мотивировать и вдохновлять Хинтона,
несмотря на статус и положение, которого он добился
за почти полувековую карьеру.
Еще одна идея Хинтона заключалась в том,
чтобы снабдить нейронные системы «векторами согласия» — алгоритмами, которые анализировали бы
информацию схожим образом, но дополняли друг друга и помогали
составить более полную картину. Ученый сравнивал подобный подход
с группой людей, занятых мозговым штурмом: все они могут соглашаться между
собой, однако в ходе дискуссии у них с высокой долей вероятности
получится совершенствовать индивидуальные внутренние представления.
«Джефф очень необычный мыслитель в том плане,
что он способен совмещать сложные математические концепты
с биологическими факторами и на основе этой связи формулировать
теории, — отмечает нейроученая
и бывшая студентка Хинтона Сью Беккер. — Исследователи более узкого
профиля концентрируются либо на математической теории, либо
на нейробиологии. У них намного меньше шансов найти ответ
на вопрос, как могут учиться и думать люди и машины».
Когда Google, OpenAI и другие технологические
компании, занятые исследованиями ИИ, начали разрабатывать нейронные сети,
которые обучались на основе обширных фрагментов цифрового текста,
Хинтон предположил,
что теперь у машин появится больше шансов распознавать и генерировать
языки. Однако этот способ обучения, по его мнению, все равно уступал тому,
как распознают текст и речь люди.
Позиция Хинтона изменилась в 2022 году, когда
Google и OpenAI разработали системы с намного более крупными, чем
раньше, базами данных. До этого ученый гордился тем, что Google действует
осторожно и не допускает попадания на рынок технологий,
теоретически способных принести вред человечеству. Но в последний год
конкуренция между
Microsoft и Google подтолкнула обе компании к выпуску чат-ботов,
возможности которых, по мнению Хинтона, еще не до конца осознают
даже сами разработчики. По словам ученого, в некоторых аспектах нейронные сети стали совершеннее, чем
человеческий мозг.
«Есть вероятность, что происходящее в этих системах намного
превосходит по сложности процессы в человеческом мозге, — отметил ученый.
— Посмотрите на то, что происходило [в сфере исследований ИИ]
пять лет назад, и на то, что происходит сейчас.
Представьте, с какой скоростью изменения будут происходить в будущем.
Это пугает». Большинство коллег Хинтона пока считают угрозу
гипотетической, но он сам уверен, что во избежание катастрофы
нужно взять под строгий контроль Google, Microsoft и других
технологических гигантов.
Хинтон опасается, что технологии в конце концов сотрут для большинства людей границу
между вымыслом и реальностью, а также кардинальным образом изменят
ситуацию на рынке труда.
Еще один повод для опасений ученого состоит в том,
что искусственные системы могут обучаться непредсказуемому
поведению, когда анализируют обширные массивы данных. Это значит, что людям
будет все сложнее прогнозировать механизмы функционирования ИИ.
В интервью NYT после ухода из Google
указано, что Хинтон жалеет о работе всей своей жизни, но утешает себя
оправданием: «Если бы я этого
не сделал, это сделал бы кто-то другой». В более позднем разговоре
с изданием MIT Technology Review ученый уточнил:
[Журналист NYT] пытался заставить меня сказать, что
я сожалею. В конце концов я сказал, что, возможно, небольшие
сожаления у меня есть. [Но] я не думаю,
что принимал какие-либо неправильные решения во время исследований [по
созданию нейросетей]. На самом деле [в 1970-е и 80-е годы] нельзя
было предвидеть [текущий этап развития ИИ]. До самого последнего момента
я думал, что экзистенциальный кризис [из-за угроз ИИ] еще очень далек [от
нас]. В общем, никаких сожалений по поводу того, что я сделал,
у меня нет.
https://meduza.io/feature/2023/05/07/krestnyy-otets-ii-dzheffri-hinton-uvolilsya-iz-google
Люди побоку:
мировой бизнес делает ставку на роботов и ИИ
В Китае к интернету будут допущены лишь граждане, прошедшие тест на распознавание лиц. Сейчас перед посещением сети пользователю необходимо предъявить удостоверение личности, которое легко подделать или им может воспользоваться совершенно другой человек. Новая технология позволит установить, что документ показывает именно его владелец.
Новая инициатива вступает в силу с 1 декабря. Новый закон, который был распространен среди всех китайских операторов связи 27 сентября, включает три требования.
Во-первых, все операторы связи должны использовать систему распознавания лиц для проверки того, является ли гражданин, подавший заявление на подключение к интернету, фактическим владельцем удостоверения личности. В то же время операторы должны проверить подлинность удостоверения личности.
Во-вторых, все операторы связи должны обновить условия предоставления услуг и уведомить всех своих клиентов о том, что до конца ноября 2019 г. им не разрешается передавать или перепродавать свою SIM-карту другому лицу.
В-третьих, операторы связи должны помочь своим клиентам проверить, есть ли номера сотовых или стационарных телефонов, которые не принадлежат им, но зарегистрированы под их именами. Для неопознанных номеров операторы связи должны немедленно провести расследование и закрыть линии связи.
Опрос также показал, что 80% респондентов в какой-то степени или полностью поддерживают рейтинги благонадежности. При этом чаще всего за системы социального скоринга высказывались образованные городские жители более старшего возраста с более высоким уровнем достатка. Это необычно, так как представители этой группы в других странах выше других ценят приватность.
В то же время 76% опрошенных признали, что считают взаимное недоверие главной проблемой китайского общества…:
Подробнее: https://www.vestifinance.ru/articles/126303
В цифровую личность также входят данные, собираемые на основе расширенной аналитики. В их числе - файлы cookie и информация о цифровых привычках пользователя.
По словам Ложкина, с помощью таких данных злоумышленники могут легко обмануть средства для борьбы с онлайн-мошенничеством. Имеющаяся информация позволит им без взлома проникать в аккаунты реальных пользователей и проводить транзакции, не вызывающие подозрений у кредитных организаций.
Как рассказал Сергей Ложкин, в феврале эксперты компании обнаружили подпольный магазин под названием Genesis, который торгует цифровыми личностями. За них просят от $5 до $200. В основном злоумышленники торгуют данными жителей США, Канады и Западной Европы.
Кроме того, специалисты обнаружили браузер Tenebris со встроенным генератором цифрового следа. Он позволяет воспроизводить сетевую активность пользователя в браузере и на прокси-сервере, а потом, используя украденные логин и пароль, входить в аккаунт и проводить онлайн-операции от лица взломанного пользователя.
"Мы видим, что случаев мошенничества с чужими платежными картами становится все больше. Финансовые организации активно инвестируют в средства для борьбы с ними, но определить, что цифровой профиль был украден и использовался злоумышленниками, весьма непросто. Чтобы остановить распространение этой угрозы, нужно ликвидировать подобные черные рынки. Вот почему мы призываем правоохранительные органы по всему миру обратить особенное внимание на эту проблему и присоединиться к борьбе с ней", — отметил Ложкин.
Бороться с финансовым мошенничеством по словам экспертов "Лаборатории Касперского", можно с помощью многофакторной аутентификации на каждом этапе подтверждения личности, а также дополнительных инструментов подтверждения личности: в том числе, проверки биометрии.
Подробнее: https://www.vestifinance.ru/articles/117566
Ее зовут Шошана Зубофф (Shoshana Zuboff
“The Age of Surveillance Capitalism: The
Fight for a Human Future at the New Frontier of Power”). …
An Action Plan to increase the safety and security of advanced AI
In October
2022, a month before ChatGPT was released, the U.S. State Department
commissioned an assessment of proliferation and security risk from weaponized
and misaligned AI.
In February 2024, Gladstone completed that assessment. It includes an analysis
of catastrophic AI risks, and a first-of-its-kind,
government-wide Action Plan for what we can do about them.
https://www.gladstone.ai/action-plan#action-plan-overvie
ЕС отрегулировал искусственный интеллект
Мартин
Буркхардт
«Краткая история цифровизации»
Все
только и говорят, что о «цифровизации».
Пару
лет назад еще можно было говорить о том, что цифровизация подарила миру
параллельную реальность, Second Life. Теперь стало ясно, что каждый из нас так
или иначе в Сети, здесь и сейчас. Это наша жизнь...:
https://www.litres.ru/martin-burkhardt/kratkaya-istoriya-cifrovizacii/chitat-onlayn/
Nav komentāru:
Ierakstīt komentāru