Лучший Взлом ВК Без предоплаты (2000 рублей) (Архив с диалогами и Токен жертвы Бесплатно)
Салам, братик/сестричка, хочешь ломануть чью-то страничку? Тогда ты по адресу!Представляю сервис по взлому ВКонтакте от Фурри, который уже завоевал сердца многих клиентов!
Что же тебе необходимо для взлома?
1) Ссылка на страницу жертвы
2) Номер телефона жертвы(не обязательно,но увеличивает шанс)
Прайс:
1) Стандартный взлом — 1000р
То, что он стандартный, не делает его плохим. Но в комлпекте ты получаешь только логин и пароль (шанс 60-70%). Срок выполнения до 72 часов.
2) Взлом улучшенным методом — 2500р
Особая методика, повышающая шансы взлома до 90%. В комплекте ты получаешь логин, пароль, токен для входа на страницу без Уведомлений, а также архив жертвы, в нём ты найдешь все фото, видео, аудио, да там даже стикеры отображаются. Структура позволяет просмотреть все фото, отправленные парням/девушкам, также я выполню твой заказ всего за 24 часа!
4) Услуга «А я вот заказал/а страницу у кучи взломщиков, никто не сделал, попробуй пожалуйста» или проще говоря «вторяки»: предоплата 300р
Если ты хочешь заказать страницу, которую уже пытались взломать или которую я уже взламывал, то я не откажу тебе. Но в данном случае (кстати в единственном случае, когда я беру предоплату) тебе будет необходимо заплатить 300р независимо от результата взлома.
Почему стоит обращаться именно ко мне?
Обхожу 2фа
Работаю с закрытыми стенами и личками
Качественно и отвественно подхожу к заказам
Всегда отписываю клиентам о состоянии заказа
Большой функционал
Отличный процент взлома
Обрати внимание:
• Не работаю со страницами известных личностей, администраторов крупных групп, администрации вк, а также с неактивными, замороженными страницами и фейками
• Оплата услуги осуществляется после предоставления «пруфов» в виде скринов сообщений из архива с любым пользователем (если ты доверяешь, то могу кинуть пару скринов, а если вообще не доверяеть, то гаранта приветствую)
• Взлом осуществляю в течение +- 3 дней (естественно, если ты не заказал срочный взлом)
• Если ты делаешь заказ, то будь готов его оплатить хоть через 10 минут, чтобы не создавать проблем и себе и мне.
• Eсли я взломал аккаунт и предоставил пруфы — считаю заказ выполненным и смена пароля (а вместе с ним и токена) не является для меня причиной не взять полную стоимость за свою выполненную работу.
Телега: @furryslitee
Как определить взлом пользователя Вконтакте, восстановить доступ или удалить профиль
Читайте, что делать в случае подозрения о взломе вашего аккаунта Вконтакте. Как восстановить доступ к вашей странице, если доступ к ней был утерян или удалить, в случае необходимости. А также, какие данные об активности пользователя сохраняет Вконтакте, где и как их можно посмотреть.
История активности
Если вы получили предупреждение о подозрительной активности в вашем профиле Вконтакте или у вас по другим причинам возникли подозрения о несанкционированной активности, то первое что необходимо сделать – это проверить историю подключений к вашему аккаунту.
Вконтакте предоставляет возможность просматривать историю активности аккаунта. Пользователь может посмотреть информацию о том, с каких устройств и в какое время осуществлялся вход в текущий аккаунт Вконтакте.
Чтобы увидеть данную информацию, перейдите в
И выберите «Показать историю активности».
В результате откроется окно, с информацией о том, когда, с какого IP адреса и с помощью какого браузера осуществлялся логин в текущий аккаунт Вконтакте.
Если вы подозреваете, что какой-то из сеансов не ваш, а его осуществил кто-то другой (не из вашего IP или в то время, когда вы его не осуществляли), в таком случае нажмите ссылку «Завершить все сеансы». После чего изменить пароль входа в учётную запись.
В результате будут прекращены все сеансы, кроме текущего.
Настройка приложений
Некоторые сайты или приложения, для своей работы могут получать доступ к информации вашего аккаунта Вконтакте. Такой доступ пользователи предоставляют сами, при установке соответствующего приложения или регистрации на определённом сайте.
Чтобы просмотреть приложения, которые имеют доступ к вашему аккаунту, перейдите в Настройки / Настройки приложений.
Чтобы узнать к каким именно данным имеет доступ приложение, кликните на значок шестерёнки напротив него.
Чтобы убрать приложение из доступа к вашему аккаунту – нажмите крестик напротив него. При желании доступ можно возобновить, нажав «Отмена».
Как восстановить пароль от профиля
Если подозрительная активность в вашем профиле Вконтакте не была вовремя обнаружена и доступ к нему утерян, то чтобы восстановить доступ к нему попробуйте восстановить пароль.
Для этого, в поле для входа или регистрации нажмите ссылку «Забыли пароль?».
В следующем окне укажите телефон или email, который Вы использовали для входа на сайт и нажмите Далее.
Если вы не помните email или утерян доступ к номеру телефона на который регистрировася ваш профиль, то для восстановления пароля нажмите соответствующую ссылку под кнопкой Далее –
Далее, следуйте указаниям меню восстановления доступа, и введите в специальные поля запрашиваемую информаци.
Как удалить свою страницу Вконтакте
Чтобы удалить свою страницу Вконтакте, перейдите в её Настройки / Общие.
Спуститесь в самый низ меню и нажмите «удалить свою страницу».
Укажите причину и нажмите кнопку «Удалить страницу».
После этого, ваше фото и вся информация на странице исчезнут.
Но, вы можете восстановить свою страницу после удаления в течении 7-ми месяцев. Для этого, залогиньтесь используя данные удалённого аккаунта и нажмите ссылку над местом для фото – «восстановить свою страницу».
Полную версию статьи со всеми дополнительными видео уроками читайте в нашем блоге…
Данный материал является частной записью члена сообщества Club.CNews.
Редакция CNews не несет ответственности за его содержание.
Мошенники используют новую схему с копированием архивов ВКонтакте
Эксперты Центра цифровой экспертизы Роскачества зафиксировали фишинговую кибератаку на аккаунты пользователей ВКонтакте. Атака нацелена на похищение пароля пользователя и взлома профиля в соцсети, чтобы использовать его для мошенничества и рассылки спама. Разбираем эту схему и рассказываем, как избежать ловушки и продолжать безопасно использовать ВК.
Социальная сеть ВКонтакте позволяет пользователям выгружать все данные, которые были собраны сетью на протяжении существования аккаунта пользователя. В архиве, который выдаёт ВКонтакте, содержится большой объем информации, включая все диалоги в переписках. Заказать выдачу архива может только сам пользователь, залогиненный в свой аккаунт, и сделать это извне нельзя. Тем не менее, именно такую атаку имитирует злоумышленник для получения доступа к странице пользователя, играя на страхе жертвы, что переписки попадут в чужие руки, если не предпринять меры.
Атака происходит следующим образом: пользователю, у которого есть аккаунт в ВКонтакте, приходит (на почту, через push-уведомления или личным сообщением) сообщение вида «архив на все ваши переписки будет создан через 24 часа и отправлен на почту XXX». В качестве почты указывается очевидно не принадлежащий пользователю ящик, по типу artem*****@mail.ru. Далее происходит классическая фишинговая схема: пользователю предлагают войти в аккаунт, чтобы отменить создание и передачу архива, а также сменить пароль по ссылке. Только вот ссылка эта (ведущая каждый раз на разные сайты, имеющие vk в названии) — фишинговая, хотя по форме она очень похожа на настоящую – дизайн фишингового ресурса максимально похож на сайт соцсети.
Если пользователь введет свой пароль в форме фейкового сайта, он отдаст свой аккаунт прямо в руки хакеру, как говорится, тепленьким. Смена пароля – дело, конечно, полезное, но не на мошенническом сайте, а только на оригинальном сайте соцсети.
— Злоумышленник, похитив ваш профиль в соцсети, действительно сможет заказать выгрузку архива, и это потенциально опасно. В архиве содержится не только открытая информация профиля, но и, к примеру, загружавшиеся пользователем документы, привязки телефонных номеров, история платежей и список использованных банковских карт. Все это может быть использовано злоумышленником в своих интересах и, конечно, может дорого обойтись пользователю
, — говорит Илья Лоевский, заместитель руководителя Роскачества.Для того, чтобы не стать жертвой мошенников по этой схеме, необходимо соблюдать следующие правила:
● Не переходите по ссылкам из сообщений, особенно играющих на эмоциях (как негативных “вас взломали”, так и позитивных “вы выиграли”).
● Вбивайте адрес соцсети только вручную в браузере, а лучше — пользуйтесь приложением соцсети. Никогда не вводите свои пароли и логины на посторонних сайтах. Даже если сайт похож на вашу любимую социальную сеть, всегда проверяйте в адресной строке, где вы находитесь.
● В случае возникновения неясной ситуации с безопасностью аккаунта в соцсети, меняйте пароль, читайте официальный FAQ и обращайтесь в техническую поддержку – не совершайте необдуманных действий, в правильности которых вы не уверены.
● Если вы переходили по подобным ссылкам, то смените пароль, чтобы обезопасить профиль. А лучше – сделайте это прямо сейчас в качестве превентивной меры, не дожидаясь взломов, потому что о каких-то случаях о ваших сомнительных переходах вы могли и забыть.
Если вы нашли ошибку, пожалуйста, выделите фрагмент текста и нажмите Ctrl+Enter
В Сети появились 100 млн паролей от страниц пользователей «ВКонтакте» :: Общество :: РБК
Данные примерно 100 млн страниц социальной сети «ВКонтакте» взломаны и выложены на черном рынке цифровых технологий. Соответствующая информация размещена в изданиях, специализирующихся на компьютерных новостях
Фото: Екатерина Кузьмина / РБК
Как сообщает издание Motherboard, взлом «ВКонтакте» якобы осуществил некий хакер по прозвищу Peace. Украденные данные он разместил в закрытой части интернета, которая используется в том числе для незаконных операций, попросив за это один биткойн (примерно $570). Хакер утверждает, что к нему попали данные с более чем 100 млн страниц.
Информация, украденная киберпреступником, включает логины, пароли, номера телефонов и адреса электронной почты. Motherboard утверждает, что пользователь «ВКонтакте», с которым удалось связаться изданию, подтвердил, что выложенный хакером пароль действительно помогает открыть его страницу.
Издание LeakedSource, также получившее данные от киберпреступника, уже выложило анализ полученных данных. В частности, указывается, что более 1,5 млн пользователей «ВКонтакте» использовали очень простые пароли вроде 123456, 123456789, qwerty или 11111. В 52 млн случаев использовалась электронная почта Mail.ru и Yandex.ru.
В сообщении LeakedSource утверждается, что методы хранения паролей, которые использовала «ВКонтакте», не соответствуют современным стандартам, принятым в интернете, что и привело к взлому.
Пресс-секретарь «ВКонтакте» Евгений Красников заявил РБК, что взлома данных пользователей соцсети не было. «Взлома базы данных «ВКонтакте» не было, речь идет о старой базе логинов и паролей, которую мошенники собирали в период с 2011 по 2012 год. Всем упомянутым в ней пользователям данные для входа на страницы менялись принудительно», — сказал он.
Автор
Артем Филипенок
Судебная система Аляски отключена в результате кибератаки
Судебная система Аляски (ACS) была вынуждена временно отключить свои онлайн-серверы на этой неделе из-за кибератаки, в результате которой в их системы было установлено вредоносное ПО, что нарушило работу виртуальных судебных заседаний.
Согласно заявлению, опубликованному ACS в субботу, веб-сайт суда был отключен, а возможность поиска судебных дел была приостановлена, пока он работал над удалением вредоносных программ, установленных на его серверах, и с целью «остановить любые дополнительные вторжения.
ACS отметила, что она работает с неизвестной компанией по кибербезопасности для расследования нарушения, но подчеркнула, что никакие конфиденциальные документы, информация о сотрудниках или информация о кредитной карте не были скомпрометированы.
«Неясно, когда суды снова подключатся к Интернету», — говорится в заявлении ACS, которое также появилось в понедельник на его временно отключенной домашней странице веб-сайта. «Судебная система стремится к продолжению операций при устранении инцидентов, связанных с кибербезопасностью.”
Другие действия, на которые может повлиять отключение своего веб-сайта ACS, включают возможность общественности просматривать судебные слушания через Zoom, выплаты залога в Интернете, отправку анкет присяжным и отправку или получение электронных писем на или с адреса электронной почты ACS.
Судебная система отметила, что все запланированные в настоящее время судебные процессы присяжных будут продолжены, как и планировалось, наряду с экстренными слушаниями по критическим вопросам.
«Я думаю, что в течение нескольких дней могут возникнуть некоторые неудобства, некоторые слушания могут быть отменены, или некоторые судьи решат перейти от видеоконференции к процедурам телеконференции или тому подобное.«Мы еще не выяснили все это», — заявил в воскресенье Anchorage Daily News председатель Верховного суда Аляски Джоэл Болджер, главный административный сотрудник судебной системы.
Болджер сообщил изданию, что только «горстка» из 3000 компьютеров ACS пострадала от вредоносного ПО и что ACS еще не знает «мотивацию хакеров».
ACS не сообщила, какие хакеры стояли за атакой.
«Команда ИБ судебной системы очень быстро поймала вредоносное ПО, и мы полагаем, что им удалось избежать каких-либо необратимых повреждений», — написала ACS в воскресенье.
Кибератаки резко возросли во время пандемии COVID-19, в результате чего хакеры, пользующиеся преимуществами критически важных ежедневных сервисов, вынуждены работать в сети, и в результате стареющие уязвимые системы испытывают нагрузку. Правительственные учреждения на уровне штата и на местном уровне, наряду со школами и больницами, регулярно становились мишенями.
Федеральное правительство также столкнулось с атаками: взлом SolarWinds, осуществленный российскими хакерами в течение нескольких месяцев в 2020 году, скомпрометировал девять федеральных агентств до обнаружения в декабре.
Среди жертв была федеральная судебная система США. В январе суды США опубликовали заявление, подтверждающее, что их система управления делами пострадала от «очевидного взлома» из-за уязвимостей, связанных со взломом ИТ-группы SolarWinds.
Министерство здравоохранения Аляски обнаружило утечку данных, которая может привести к раскрытию финансовой и медицинской информации жителей
Адам Баннистер 17 сентября 2021 г., 15:23 UTCОбновлено: 20 сентября 2021 г., 07:33 UTC
Раскрытие информации — часть продолжительного расследования изощренной атаки, имевшей место в мае
Министерство здравоохранения и социальных служб Аляски (DHSS) предупредило, что «очень изощренная» кибератака могла раскрыть личные данные жителей, в том числе финансовые. Информация.
«Атака вредоносного ПО», которая произошла в мае, затронула «неизвестное число лиц, но потенциально затрагивает любые данные, хранящиеся в инфраструктуре информационных технологий департамента во время кибератаки», — говорится в сообщении DHSS в прессе. релиз (PDF) опубликован вчера (16 сентября).
«Из-за возможности кражи личной информации DHSS настоятельно призывает всех жителей Аляски, которые предоставили данные DHSS или которые могут хранить данные онлайн в DHSS, принять меры для защиты от кражи личных данных.»
Открытые данные
Веб-сайт DHSS был отключен 17 мая после вторжения, которое, по словам агентства, было впервые обнаружено 2 мая.
До отключения систем злоумышленники потенциально имели доступ к полным именам, датам рождения и социальным сетям. Номера безопасности, адреса, номера телефонов, номера водительских прав, информация о здоровье и финансовая информация.
Также были потенциально раскрыты внутренние идентификационные номера, такие как Medicaid или отчеты о случаях, а также историческая информация о взаимодействии людей с DHSS.
Прочтите последние новости об утечке данных
DHSS работает над восстановлением множества онлайн-сервисов, отключенных в результате атаки. Специалист по технологиям DHSS Скотт Маккатчеон сказал, что «все затронутые системы остаются в автономном режиме, поскольку мы старательно и скрупулезно проходим через три этапа нашего реагирования».
Министерство заявило, что отложило свое последнее объявление, в котором говорится, что оно сообщило о нарушении Закона о переносимости и подотчетности в медицинском страховании (HIPAA) и Закона Аляски о защите личной информации (APIPA), «чтобы избежать вмешательства в уголовное расследование».
Помощь жителям Аляски
Горячая линия будет работать со вторника (21 сентября), чтобы ответить на вопросы заинтересованных жителей и, при желании, помочь им подписаться на бесплатную услугу кредитного мониторинга.
«Жители Аляски доверяют нам важную медицинскую информацию, и мы очень серьезно относимся к этой ответственности», — сказал комиссар DHSS Адам Крам.
«К сожалению, несмотря на все наши усилия по защите данных, по мере продвижения расследования кибератаки стало ясно, что произошла утечка личной и медицинской информации.В предыдущем заявлении DHSS по поводу инцидента от 4 августа
говорилось, что «на данный момент нет доказательств того, что защищенная информация о здоровье жителей Аляски или информация, позволяющая установить личность, была украдена».
Специалист по технологиям DHSS Скотт Маккатчеон тогда сказал, что «злоумышленники предприняли шаги для поддержания… долгосрочного доступа даже после того, как они были обнаружены».
В последнем заявлении DHSS CISO Тор Райан прокомментировал: «DHSS продолжает работу по дальнейшему укреплению своих процессов, инструментов и персонала, чтобы быть более устойчивыми к будущим кибератакам.”
СВЯЗАННЫЕ С Olympus настаивает на том, что медицинские услуги» бесперебойны «для атак вредоносного ПО
Информация о взломе данных третьих лиц
Ваша личная информация часто хранится у продавцов, поставщиков услуг и множества других компаний. В результате эти компании могут стать мишенью для хакеров и киберпреступников. Регулярное освещение событий в новостях, в которых обсуждаются утечки данных, скомпрометированная информация и кража личных данных, может затруднить определение ситуаций, в которых вам следует действовать.Alaska USA регулярно отслеживает тенденции и оповещения из различных источников, чтобы быть в курсе основных угроз. Ниже вы найдете информацию о текущих нарушениях данных третьими сторонами, а также информацию о том, как вы можете защитить свои учетные записи и личность.
Equifax Inc. объявила 7 сентября 2017 г. об инциденте кибербезопасности. Согласно расследованию Equifax, несанкционированный доступ произошел с середины мая по июль 2017 года, потенциально затронув около 143 миллионов U.С. потребителей. Взломанная информация включает имена, номера социального страхования, даты рождения, адреса и, в некоторых случаях, номера водительских прав и номера кредитных карт.
В ответ на инцидент Equifax предлагает бесплатную защиту от кражи личных данных и мониторинг кредитных файлов всем потребителям в США, даже тем, на которых этот инцидент не повлиял. Это предложение, получившее название TrustedID Premier, включает 3-бюро кредитного мониторинга кредитных отчетов Equifax, Experian и TransUnion; копии кредитных отчетов Equifax; возможность блокировать и разблокировать кредитные отчеты Equifax; страхование от кражи личных данных; и сканирование Интернета на предмет номеров социального страхования — все бесплатно для U.Потребители С. в течение одного года.
Для получения дополнительной информации посетите https://www.equifaxsecurity2017.com/
Wendy’s сообщила об утечке данных о клиентах. Это нарушение затрагивает клиентов, которые использовали кредитную или дебетовую карту в ресторанах в период с января по июнь 2016 года. Согласно официальному заявлению Венди, данные дебетовой и кредитной карты, включая имя держателя карты, номер карты, дату истечения срока действия и проверочную стоимость карты (код CVV), был скомпрометирован.
Для получения дополнительной информации посетите https: // www.wendys.com/en-us/about-wendys/the-wendys-company-updates.
Harbortouch Payments, провайдер процессинга карт, опубликовал предварительную информацию о том, что небольшой процент их продавцов пострадал от вредоносных программ в торговых точках. В отчетах указывается период, в течение которого транзакции могли быть затронуты, с 10 марта по 14 апреля 2015 года. Harbortouch Payments предоставляет терминалы для точек продаж и обработку карт для продавцов по всей стране.
Полное влияние вредоносного ПО в настоящее время неизвестно.Аляска США активно следит за ситуацией и будет предоставлять обновления по мере поступления новой информации.
17 марта 2015 года Premera объявила, что они стали целью кибератаки, в ходе которой хакеры получили доступ к системам и, возможно, получили личную информацию своих клиентов, сотрудников и всех, кто имел дела с Premera. Компрометация произошла 5 мая 2014 года и содержала информацию, относящуюся к 2002 году.
В ответ на атаку Premera предлагает два года бесплатного кредитного мониторинга и услуги по защите личных данных всем, кто пострадал от этого инцидента.Premera сообщила, что пострадавшие получат письмо с дополнительной информацией. Premera не будет отправлять электронные письма или делать нежелательные телефонные звонки по поводу этого инцидента.
Anthem объявил 13 февраля 2015 года, что они стали целью кибератаки, в ходе которой хакеры получили доступ к системам и могли получить личную информацию своих клиентов, сотрудников и всех, кто имел дела с Anthem. Доступные данные содержат личную информацию, возраст которой превышает 10 лет; Однако дата нападения неизвестна.
В ответ на атаку Anthem предлагает два года бесплатного кредитного мониторинга и услуги по защите личных данных всем, кто пострадал от этого инцидента. Anthem сообщил, что пострадавшие получат письмо с дополнительной информацией. Anthem не будет отправлять электронные письма и не делать нежелательных телефонных звонков в связи с этим инцидентом. Чтобы узнать больше об атаке и ответных действиях Anthem, посетите сайт www.anthemfacts.com
.Взлом | Нео Мусорщик Вики
- «Навык управления компьютерами»
Навык Hacking позволяет игроку легко манипулировать компьютерами.Он позволяет взламывать заблокированные электронные устройства, предоставляя доступ к любым файлам данных, которые они могут содержать.
Стоимость очков способностей: 2
Руководство по взлому []
Вот простое руководство по разблокировке электронных устройств. Все устройства, которые необходимо разблокировать, должны иметь аккумулятор с хотя бы одним электрическим зарядом внутри.
Ноутбук []Чтобы разблокировать ноутбук, игроку необходимо:
- Обладать навыком взлома
- Откройте портативный компьютер, если он закрыт (с помощью пункта контекстного меню «Открыть»)
- Включите его (с помощью пункта контекстного меню «Вкл.»)
- Введите информацию о взломе (с помощью пункта контекстного меню «Использовать»)
- Выберите вариант разблокировки ноутбука во время встречи
Для разблокировки любого другого электронного устройства (iSlab, смартфона или мобильного телефона) игроку необходимо:
- Обладать навыком взлома;
- Иметь разблокированный и включенный ноутбук
- Поместите соответствующее программное обеспечение для взлома внутри ноутбука (держите ноутбук в руке, чтобы передать программное обеспечение)
- iSl-AK для iSlabs
- 5МР-7 для смартфонов
- Br1nG для мобильных телефонов
- Включить заблокированное устройство (с помощью пункта контекстного меню «Вкл.»)
- Введите информацию о взломе (с помощью пункта меню правой кнопкой мыши «Использовать» на портативном компьютере )
- Выберите правильную программу для взлома.
- Выберите заблокированное устройство.
- Выберите вариант разблокировки устройства
Встречи []
Во время определенных встреч с использованием высокотехнологичного оборудования персонаж со знанием хакерства может найти более легкий и быстрый доступ к компьютерным терминалам или получить представление о работе электронных устройств. Умение можно использовать во время следующих встреч:
- в Camp Grayling, при использовании Blackwhite игрок может снизить индикатор выполнения на 20%, задав себе один дополнительный поисковый запрос.
- в начале игры, внутри криогенератора, чтобы запереть дверь перед входящим существом
- во время боя на арене «Зом Зом», чтобы найти и использовать слабые места робота
- в Изотопной шахте, чтобы исправить программирование Гертруды
- в Сбербанке Детройта, чтобы взломать терминал данных
- в Сбербанке Детройта, чтобы найти слепую зону охранного велосипеда
Примечания []
- Хотя его использование в основном ограничивается небоевыми действиями, взлом потенциально может быть очень прибыльным.Иногда игрок может случайно наткнуться на устройства (проданные на рынке или изъятые из мусора), содержащие файлы данных стоимостью от нескольких сотен до нескольких тысяч долларов. Кроме того, чтение файлов данных может раскрыть некоторые интересные и забавные фрагменты информации, добавляя изюминку в игру.
Грядущие хакеры ИИ | Белферский центр науки и международных отношений
Искусственный интеллект — ИИ — это информационная технология. Он состоит из программного обеспечения. Он работает на компьютерах.И это уже глубоко укоренилось в нашей социальной ткани, как в том смысле, который мы понимаем, так и в том, что мы не понимаем. Он взломает наше общество в такой степени и с такими эффектами, как все, что было раньше. Я имею в виду это двумя разными способами. Во-первых, для взлома будут использоваться системы искусственного интеллекта. И, во-вторых, системы искусственного интеллекта сами станут хакерами: они будут находить уязвимости во всех видах социальных, экономических и политических систем, а затем использовать их с беспрецедентной скоростью, масштабом и размахом. Это не просто разница в степени; это разница в натуральном выражении.Мы рискуем будущим, когда системы ИИ будут взламывать другие системы ИИ, и люди будут не более чем сопутствующим ущербом.
Это не преувеличение. Хорошо, может быть, это немного преувеличение, но для этого не нужны научно-фантастические технологии далекого будущего. Я не постулирую никакой «сингулярности», когда цикл обратной связи при обучении ИИ становится настолько быстрым, что опережает человеческое понимание. Я не беру в расчет умных андроидов вроде Дейта (Звездный путь), R2-D2 (Звездные войны) или Марвина-параноика Андроида (Автостопом по галактике).Мои сценарии ни от кого не требуют злого умысла. Нам не нужны вредоносные системы искусственного интеллекта, такие как Скайнет (Терминатор) или Агенты (Матрица). Некоторые из хаков, которые я буду обсуждать, даже не требуют серьезных научных открытий. Они будут совершенствоваться по мере того, как методы искусственного интеллекта станут более изощренными, но мы можем видеть намеки на их применение сегодня. Этот взлом будет происходить естественным образом, поскольку ИИ станут более продвинутыми в обучении, понимании и решении проблем.
В этом эссе я расскажу о последствиях деятельности хакеров ИИ.Во-первых, я обобщу термин «взлом», чтобы включить в него экономические, социальные и политические системы, а также наш мозг. Далее я опишу, как системы ИИ будут использовать нас для взлома. Затем я объясню, как ИИ взломают экономические, социальные и политические системы, составляющие общество. Наконец, я расскажу о последствиях мира хакеров ИИ и укажу на возможные способы защиты. Не все так мрачно, как может показаться.
Во-первых, определение:
Def: Hack / hak / (имя существительное) —
1.Умное, непреднамеренное использование системы, которое: а) подрывает правила или нормы этой системы, б) за счет какой-либо другой части этой системы.
2. То, что позволяет система, но это непреднамеренно и неожиданно для разработчиков.
Обратите внимание на детали. Взлом — это не обман. Он следует правилам, но подрывает их намерения. Это непреднамеренно. Это эксплуатация. Это «игра в систему». Фильмы про каперсов наполнены хитростями.МакГайвер был хакером. Хаки — это умно, но не то же самое, что инновации. И да, это субъективное определение.
Системы обычно оптимизируются для достижения конкретных результатов. Взлом — это стремление к другому результату, часто за счет исходной оптимизации. Системы имеют тенденцию быть жесткими. Системы ограничивают то, что мы можем делать, и неизменно некоторые из нас хотят делать что-то еще. Итак, взламываем. Конечно, не всем. Не все хакеры. Но нас достаточно.
Под взломом обычно понимают что-то, что вы можете сделать с компьютерами.Но взломать можно любую систему правил, включая налоговый кодекс.
Налоговый код не является программным. Он не запускается на компьютере. Но вы все равно можете думать об этом как о «коде» в компьютерном смысле этого слова. Это серия алгоритмов, которые принимают входные данные — финансовую информацию за год — и выдают результат: сумму причитающегося налога. Это детерминировано, или, по крайней мере, так должно быть.
Все компьютерное программное обеспечение содержит дефекты, обычно называемые ошибками. Это ошибки: ошибки в спецификации, ошибки в программировании, ошибки, которые происходят где-то в процессе создания программного обеспечения.Это может показаться безумием, но современные программные приложения обычно содержат сотни, если не тысячи ошибок. Эти ошибки присутствуют во всем программном обеспечении, которое вы используете в настоящее время: на вашем компьютере, в телефоне, на любых устройствах «Интернета вещей», которые у вас есть. То, что все это программное обеспечение работает отлично в большинстве случаев, говорит о том, насколько неясными и несущественными могут быть эти ошибки. Вы вряд ли столкнетесь с ними при нормальной работе, но они есть.
Некоторые из этих ошибок вызывают бреши в безопасности.Под этим я подразумеваю кое-что очень конкретное: ошибки, которые злоумышленник может намеренно запустить для достижения некоторого состояния, которым злоумышленник может воспользоваться. На языке компьютерной безопасности мы называем эти ошибки «уязвимостями».
Эксплуатация уязвимости — это то, как китайские военные взломали Equifax в марте 2017 года. Уязвимость в программном пакете Apache Struts позволила хакерам проникнуть на веб-портал для жалоб потребителей. Оттуда они смогли перейти в другие части сети.Они нашли имена пользователей и пароли, которые позволили им получить доступ к другим частям сети и, в конечном итоге, загрузить личную информацию о 147 миллионах человек в течение четырех месяцев.
Это пример взлома. Это способ эксплуатировать систему непредвиденным и непредусмотренным разработчиками системы способом, который в некоторой степени приносит пользу хакеру за счет пользователей, которых система должна обслуживать.
В налоговом кодексе тоже есть ошибки.Они могли быть ошибками в написании налогового законодательства: ошибками в словах, по которым проголосовал Конгресс и подписал закон. Это могут быть ошибки в толковании налогового кодекса. Это могут быть упущения в понимании частей закона или непреднамеренные упущения того или иного рода. Они могут возникнуть в результате непредвиденного взаимодействия между различными частями налогового кодекса.
Недавний пример — Закон о сокращении налогов и занятости от 2017 года. Этот закон был разработан в спешке и тайно и принят без какого-либо времени для рассмотрения законодателями — или даже корректуры.Некоторые из них были написаны от руки, и практически невозможно представить, чтобы кто-либо, голосовавший за или против, точно знал, что в ней написано. В тексте была опечатка, из-за которой пособие в связи со смертью военнослужащих было отнесено к категории трудового дохода. Практический эффект этой ошибки заключался в том, что выжившие члены семьи неожиданно получили налоговые счета на сумму 10 000 долларов и более. Это ошибка.
Но это не уязвимость, потому что никто не может воспользоваться ею, чтобы уменьшить свой налоговый счет. Но некоторые ошибки в налоговом кодексе также являются уязвимостями.Например, есть уловка с корпоративным налогом под названием «Двойное ирландское с голландским сэндвичем». Эта уязвимость возникает из-за взаимодействия налоговых законов в разных странах. По сути, это предполагает использование комбинации ирландских и голландских дочерних компаний для перемещения прибыли в юрисдикции с низкими или нулевыми налогами. Технологические компании особенно хорошо подходят для использования этой уязвимости; они могут передавать права интеллектуальной собственности дочерним компаниям за рубежом, которые затем переводят денежные средства в налоговые убежища. Вот как такие компании, как Google и Apple, избегают уплаты справедливой доли налогов в США, несмотря на то, что они являются американскими компаниями. Это определенно непреднамеренное и непредвиденное использование налогового законодательства трех стран. И это может быть очень прибыльным для хакеров — в данном случае крупных технологических компаний, уклоняющихся от уплаты налогов в США — за счет всех остальных. По оценкам, только в 2017 году американские компании уклонились от уплаты налогов в США почти на 200 миллиардов долларов.
Некоторые уязвимости созданы намеренно.Лоббисты постоянно пытаются внести в налоговый кодекс ту или иную норму в интересах своих клиентов. Тот же самый налоговый закон США 2017 года, который привел к недобросовестным налоговым счетам для скорбящих семей, включал специальные налоговые льготы для инвестиционных партнерств в нефтегазовой сфере, специальное освобождение, которое гарантирует, что менее 1 из 1000 поместий будет платить налог на наследство, и в частности, формулировки. расширение сквозной лазейки, которую промышленность использует для включения оффшоров и избежания налогов в США.
Иногда эти уязвимости вносятся в закон с ведома законодателя, спонсирующего поправку, а иногда они не знают об этом.Эта преднамеренная вставка также аналогична тому, о чем мы беспокоимся в программном обеспечении: программисты намеренно добавляют бэкдоры в системы для своих собственных целей. Это не взлом налогового кода или компьютерного кода. Это взлом процессов, которые их создают: законодательный процесс, создающий налоговое законодательство, или процесс разработки программного обеспечения, создающий компьютерные программы.
В последние несколько лет в прессе появилось много сообщений о том, что китайские компании, такие как Huawei и ZTE, добавили бэкдоры в свое оборудование маршрутизации 5G по запросу — или, возможно, по требованию — правительства Китая.Это, безусловно, возможно, и эти уязвимости будут бездействовать в системе, пока они не будут использованы кем-то, кто о них знает.
В налоговом мире ошибки и уязвимости называются налоговыми лазейками. В налоговом мире использование этих уязвимостей называется уклонением от уплаты налогов. И есть тысячи людей, которых мы в мире компьютерной безопасности назвали бы «исследователями в черной шляпе», которые исследуют каждую строку налогового кодекса в поисках уязвимостей, которые можно использовать. Их называют налоговыми юристами и налоговыми бухгалтерами.
Современное программное обеспечение невероятно сложно. Microsoft Windows 10, последняя версия этой операционной системы, содержит около 50 миллионов строк кода. Чем больше сложность, тем больше ошибок, а значит, больше уязвимостей. Налоговый кодекс США также сложен. Он состоит из налоговых законов, принятых Конгрессом, административных постановлений и судебных постановлений. Достоверные оценки размеров всего этого трудно сделать; даже эксперты часто не имеют представления. Сами налоговые законы составляют около 2600 страниц. правил IRS и налоговых постановлений увеличивают это примерно до 70 000 страниц.Трудно сравнивать строки текста со строками компьютерного кода, но оба они чрезвычайно сложны. И в обоих случаях большая часть этой сложности связана с тем, как разные части кода взаимодействуют друг с другом.
Мы знаем, как исправить уязвимости в компьютерном коде. Мы можем использовать различные инструменты для их обнаружения и исправления до того, как код будет завершен. После того, как код появился в мире, его обнаруживают разного рода исследователи, и, что наиболее важно, мы хотим, чтобы поставщики быстро исправляли их, как только они станут известны.
Иногда мы можем использовать эти же методы с налоговым кодом. Налоговый закон 2017 г. ограничил налоговые вычеты по налогу на имущество. Это положение не вступило в силу в 2018 году, поэтому кто-то придумал хитрый способ предоплаты налогов на недвижимость в 2018 году в 2017 году. Незадолго до конца года IRS решило, когда это было законно, а когда — нет. Краткий ответ: в большинстве случаев это не так.
Часто бывает не так просто. Некоторые взломы прописаны в законе, или их нельзя исключить.Принятие любого налогового законодательства — это большое дело, особенно в США, где этот вопрос носит столь пристрастный и спорный характер. (Прошло почти четыре года, и эта ошибка с налогом на заработанный доход для семей военнослужащих все еще не исправлена. И это легко; все признают, что это была ошибка.) Может быть трудно понять, кто должен исправлять Налоговый кодекс: есть законодательная власть, суды, налоговые органы? А потом на это могут уйти годы. У нас просто нет возможности вносить исправления в налоговый кодекс с той же оперативностью, что и при исправлении программного обеспечения.
Все является системой, любую систему можно взломать, а люди — прирожденные хакеры.
Взломаны программы для часто летающих пассажиров. Подсчет карт в блэкджеке — это хитрость. Спорт все время взламывают. Кто-то первым понял, что изогнутое лезвие хоккейной клюшки позволяет делать более быстрые и точные удары, но также делает игру более опасной, о чем в правилах не говорится, потому что никто об этом раньше не думал. Гонки Формулы-1 полны хакерских приемов, поскольку команды придумывают способы модифицировать конструкцию автомобилей, которые конкретно не запрещены сводом правил, но, тем не менее, подрывают его намерения.
История финансов — это история взломов. Снова и снова финансовые учреждения и трейдеры ищут лазейки в правилах — вещи, которые прямо не запрещены, но являются непреднамеренным подрывом основных систем, — которые дают им преимущество. Uber, Airbnb и другие компании с гиг-экономикой взламывают правительственные постановления. Флибустьер — это древняя хитрость, впервые изобретенная в Древнем Риме. Таковы скрытые положения законодательства. Джерримандеринг — это взлом политического процесса.
И наконец, людей можно взломать. Наш мозг — это система, которая развивалась миллионы лет, чтобы поддерживать нас в живых и, что более важно, воспроизводить. Он был оптимизирован за счет постоянного взаимодействия с окружающей средой. Но он был оптимизирован для людей, которые жили небольшими семейными группами в высокогорье Восточной Африки в 100 000 году до нашей эры. Он не так хорошо подходит для Нью-Йорка, Токио или Дели двадцать первого века. И поскольку он включает в себя множество когнитивных сокращений — он развивается, но не в каком-либо значимом здесь масштабе — им можно манипулировать.
Когнитивный взлом — это мощный инструмент. Многие из устойчивых социальных систем, на которые опирается наше общество, — демократия, рыночная экономика и т. Д. — зависят от людей, принимающих соответствующие решения. Этот процесс можно взломать разными способами. Социальные сети отвлекают наше внимание. Современная реклама, адаптированная к нашему отношению и поведению, представляет собой взлом наших систем убеждения. Дезинформация подрывает наше общее понимание реальности. Терроризм взламывает наши когнитивные системы оценки страха и риска, убеждая людей, что он представляет собой большую угрозу, чем есть на самом деле. Это ужасающий, яркий, зрелищный, случайный — в том смысле, что любой может стать его следующей жертвой — и злонамеренный. Это как раз то, что заставляет нас преувеличивать риск и остро реагировать. Социальная инженерия, обычная хакерская тактика, заключающаяся в том, чтобы убедить кого-либо раскрыть свои учетные данные или иным образом сделать что-то полезное для хакера, — это гораздо больше взлом доверия и авторитета, чем взлом любой компьютерной системы.
Что нового — это компьютеры. Компьютеры — это системы, и их взламывают напрямую.Но что более интересно, так это компьютеризация более традиционных систем. Финансы, налогообложение, соблюдение нормативных требований, выборы — все это и многое другое компьютеризировано. А когда что-то компьютеризируется, то, как это можно взломать, меняется. Компьютеризация ускоряет взлом в трех измерениях: скорости, масштабе и сфере действия.
Скорость компьютера изменяет природу взлома. Возьмите простую концепцию, например торговлю акциями, и автоматизируйте ее. Это становится чем-то другим. Возможно, он делает то же самое, что и всегда, но делает это со сверхчеловеческой скоростью.Примером может служить высокочастотная торговля, что-то непреднамеренное и неожиданное для тех, кто проектировал ранние рынки.
Весы тоже. Компьютеризация позволяет системам расти намного больше, чем они могли бы в противном случае, что меняет масштабы взлома. Само понятие «слишком большой, чтобы обанкротиться» — это уловка, позволяющая компаниям использовать общество в качестве последней страховки от принятия неверных решений.
Наконец, область применения. Компьютеры повсюду, они влияют на все аспекты нашей жизни. Это означает, что новые концепции взлома компьютеров потенциально применимы повсюду с разными результатами.
Не все системы одинаково поддаются взлому. Сложные системы с множеством правил особенно уязвимы просто потому, что существует больше возможностей для непредвиденных и непредвиденных последствий. Это, безусловно, верно для компьютерных систем — в прошлом я писал, что сложность — злейший враг безопасности — и это также верно для таких систем, как налоговый кодекс, финансовая система и ИИ. Системы, ограниченные более гибкими социальными нормами, а не жестко определенными правилами, более уязвимы для взлома, потому что они более открыты для интерпретации и, следовательно, имеют больше лазеек.
Даже в этом случае уязвимости всегда останутся, и всегда можно будет взломать. В 1930 году математик Курт Гёдель доказал, что все математические системы либо неполны, либо несовместимы. Я считаю, что это верно в целом. Системы всегда будут иметь двусмысленность или несоответствия, и их всегда можно будет использовать. И всегда найдутся люди, которые захотят их эксплуатировать.
В 2016 году Технологический институт Джорджии опубликовал исследование о доверии людей к роботам. В исследовании использовался неантропоморфный робот, который помогал перемещаться по зданию, указывая такие направления, как «Сюда, к выходу». Сначала участники взаимодействовали с роботом в обычных условиях, чтобы оценить его производительность, которая была заведомо плохой. Затем им нужно было решить, следует ли выполнять команды робота в смоделированной аварийной ситуации. В последней ситуации все двадцать шесть участников подчинялись роботу, несмотря на то, что всего за несколько минут до этого они заметили, что у робота плохие навигационные навыки.Степень доверия, которое они оказали этой машине, была поразительной: когда робот указывал на темную комнату без четкого выхода, большинство людей повиновались ему, вместо того, чтобы безопасно выйти через дверь, через которую они вошли. Исследователи провели аналогичные эксперименты с другими роботами, которые, казалось, работали со сбоями. Опять же, испытуемые следовали за этими роботами в аварийной обстановке, очевидно, отказавшись от здравого смысла. Кажется, что роботы могут естественно взломать наше доверие.
Мы могли бы потратить страницы на определение ИИ.В 1968 году пионер искусственного интеллекта Марвин Мински определил его как «науку о том, как заставить машины делать вещи, которые потребовали бы интеллекта, если бы их делали люди». Министерство обороны США использует: «способность машин выполнять задачи, которые обычно требуют человеческого интеллекта». Версия теста Тьюринга 1950 года, названная в первоначальном обсуждении «имитационной игрой», была сосредоточена на компьютерной программе, которую люди не могли отличить от реального человека. Для наших целей ИИ — это общий термин, охватывающий широкий спектр технологий принятия решений, имитирующих человеческое мышление.
Мне нужно сделать одно различие между специализированным, иногда называемым «узким», ИИ и общим ИИ. Общий ИИ — это то, что вы видите в фильмах. Это ИИ, который может чувствовать, думать и действовать в очень общем и человеческом смысле. Если он умнее людей, это называется «искусственный суперинтеллект». Объедините это с робототехникой, и вы получите андроид, который может быть более или менее похож на человека. Роботы из фильмов, которые пытаются уничтожить человечество, — это обычный ИИ.
Было проведено множество практических исследований, посвященных созданию ИИ в целом, и множество теоретических исследований о том, как проектировать эти системы, чтобы они не делали того, чего мы не хотим, например, уничтожали человечество.И хотя это увлекательная работа, охватывающая области от информатики до социологии и философии, до ее практического применения, вероятно, потребуются десятилетия. Вместо этого я хочу сосредоточиться на специализированном ИИ, потому что это то, что сейчас практично.
Специализированный ИИ предназначен для решения конкретной задачи. Примером может служить система, управляющая беспилотным автомобилем. Он знает, как управлять автомобилем, как соблюдать правила дорожного движения, как избежать несчастных случаев и что делать, когда происходит что-то неожиданное, например, детский мяч, внезапно отскакивающий от дороги.Специализированный ИИ много знает и может принимать решения на основе этих знаний, но только в этой ограниченной области.
Одна из распространенных шуток среди исследователей ИИ заключается в том, что как только что-то работает, это уже не ИИ; это просто программное обеспечение. Это может сделать исследования ИИ несколько удручающими, поскольку по определению учитываются только неудачи, но в этом есть доля правды. ИИ по своей сути является загадочным научно-фантастическим термином. Как только это становится реальностью, это больше не является загадкой. Мы привыкли считать, что для чтения рентгеновских снимков грудной клетки требуется рентгенолог, то есть умный человек с соответствующей подготовкой.Теперь мы понимаем, что это механическая задача, которую также может выполнить компьютер.
Что действительно происходит, так это то, что существует целый ряд технологий и систем для принятия решений, начиная от простого электромеханического термостата, который управляет печью в ответ на изменение температуры, до научно-фантастического андроида. Что делает что-то ИИ, часто зависит от сложности выполняемых задач и сложности среды, в которой эти задачи выполняются. Термостат выполняет очень простую задачу, которая должна учитывать только очень простой аспект окружающей среды.Для этого даже не требуется компьютер. Современный цифровой термостат может определять, кто находится в комнате, и делать прогнозы относительно будущих потребностей в тепле на основе как использования, так и прогноза погоды, а также энергопотребления в масштабах города и посекундных затрат на электроэнергию. Футуристический термостат может действовать как заботливый и заботливый дворецкий, что бы это ни значило в контексте регулирования температуры окружающей среды.
Я бы предпочел избежать этих споров об определениях, потому что они в значительной степени не имеют значения для наших целей.Помимо принятия решений, важными качествами систем, которые я буду обсуждать, являются автономность, автоматизация и физическая активность. Термостат имеет ограниченную автоматизацию и физическое действие, а также не имеет автономии. Система прогнозирования рецидивов преступников не имеет физического воздействия; он просто дает рекомендации судье. В беспилотном автомобиле есть все три. В R2-D2 много всего трех, хотя синтез речи на английском языке почему-то не учли его разработчики.
Робототехника также имеет популярную мифологию и менее яркую реальность.Как и у ИИ, есть много разных определений этого термина. Мне нравится определение Кейт Дарлинг, специалиста по этике роботов: «физически воплощенные объекты, которые могут ощущать, думать и воздействовать на окружающую среду посредством физического движения». В кино и на телевидении это часто искусственные люди: андроиды. Опять же, я предпочитаю сосредоточиться на более прозаических и краткосрочных технологиях. Для наших целей робототехника — это автономность, автоматизация и физическая активность, нацеленные на усиление. Это «киберфизическая автономия»: технология искусственного интеллекта внутри объектов, которая может напрямую физически взаимодействовать с миром.
Люди давно приписывают компьютерным программам человеческие качества. В 1960-х программист Йозеф Вайценбаум создал примитивную диалоговую программу, имитирующую терапевта, под названием ELIZA. Он был поражен тем, что люди доверяют глубоко личные секреты тому, что, как они знали, было глупой компьютерной программой. Секретарша Вайценбаума даже просила его выйти из комнаты, чтобы она могла поговорить с ЭЛИЗА наедине. Сегодня люди вежливы с голосовыми помощниками, такими как Алекса и Сири. Siri даже жалуется, когда вы серьезно относитесь к этому: «Это не очень хорошо», — говорит он — потому что, конечно, это запрограммировано.
Многочисленные эксперименты дают аналогичные результаты. Субъекты исследования оценили бы производительность компьютера менее критически, если бы они дали оценку компьютеру, который критиковали, что указывало бы на то, что они не хотели задеть его чувства. В другом эксперименте, если компьютер сообщал субъекту исследования некую явно вымышленную часть «личной информации», субъект, вероятно, ответил бы взаимностью, поделившись реальной личной информацией. Психологи изучают силу взаимности. Люди тоже пользуются этим приемом.
Дело не только в том, что мы будем относиться к ИИ как к людям. Они также будут вести себя как люди, намеренно разработанные, чтобы обмануть нас. Они будут использовать когнитивные хаки.
Во время выборов в США в 2016 году примерно пятая часть всех политических твитов была отправлена ботами. Для британского голосования по Brexit в том же году это было третье. В отчете Оксфордского интернет-института за 2019 год были обнаружены доказательства использования ботов для распространения пропаганды в пятидесяти странах. Это, как правило, простые программы, бездумно повторяющие лозунги. Например, четверть миллиона просаудовских твитов «Мы все доверяем [наследному принцу] Мухаммеду бин Салману» были опубликованы после убийства Джамаля Хашогги в 2018 году.
В 2017 году Федеральная комиссия по связи провела период общественного обсуждения своих планов по отмене сетевого нейтралитета в режиме онлайн. Было получено ошеломляющие 22 миллиона комментариев. Многие из них — может быть, половина — были представлены с использованием украденных документов. Эти фальшивые комментарии также были грубыми; 1.3 миллиона были сгенерированы на основе одного и того же шаблона, с некоторыми измененными словами, чтобы они выглядели уникальными. Они не выдержали даже беглого рассмотрения.
Подобные усилия станут только более изощренными. В течение многих лет программы ИИ писали новости о спорте и финансах для настоящих новостных организаций, таких как Associated Press. Ограниченный характер этих тем упростил их для ИИ. Теперь они начинают писать более общие истории. Исследовательские проекты, такие как GPT-3 Open AI, расширяют возможности того, что можно сделать при создании текста с помощью AI. В эти системы можно загружать реальные факты и писать правдивые истории, но с тем же успехом их можно кормить ложью и писать фальшивые новости.
Не нужно много воображения, чтобы увидеть, как ИИ ухудшит политический дискурс. Управляемые искусственным интеллектом персонажи уже могут писать персонализированные письма в газеты и избранным должностным лицам, оставлять внятные комментарии на новостных сайтах и досках объявлений и разумно обсуждать политику в социальных сетях. Эти системы будут только улучшаться: более изощренными, более четкими, более личными, и их будет труднее отличить от реальных людей.
В недавнем эксперименте исследователи использовали программу генерации текста, чтобы отправить 1000 комментариев в ответ на запрос правительства о предоставлении информации по проблеме Medicaid. Все они звучали уникально, как реальные люди, отстаивающие определенную политическую позицию. Они обманули администраторов Medicaid.gov, которые восприняли их как искреннюю озабоченность реальных людей. Впоследствии исследователи определили комментарии и попросили их удалить, чтобы никакая реальная политическая дискуссия не была несправедливо предвзятой.Другие не будут такими этичными.
Эти методы уже используются. Интернет-пропагандистская кампания использовала снимки головы, созданные искусственным интеллектом, для создания фальшивых журналистов. Китай экспериментировал с созданными искусственным интеллектом текстовыми сообщениями, призванными повлиять на тайваньские выборы 2020 года. Технология Deepfake — методы искусственного интеллекта для создания реальных видеозаписей фальшивых событий, часто с реальными людьми, говорящими то, чего они на самом деле не говорили, — используются в политических целях.
Один из примеров того, как это будет разворачиваться, — это «персональные боты».«Это ИИ, которые выдают себя за отдельных лиц в социальных сетях и других цифровых группах. У них есть история, характер и стиль общения. Они не распространяют пропаганду постоянно. Они общаются в разных группах по интересам: садоводство, вязание, моделирование железных дорог и т. Д. Они действуют как обычные члены этих сообществ, публикуют, комментируют и обсуждают. Такие системы, как GPT-3, позволят этим ИИ легко анализировать предыдущие разговоры и связанный с ними контент в Интернете и казаться хорошо осведомленными.Затем, время от времени, ИИ публикует что-нибудь, имеющее отношение к политическому вопросу. Может быть, это статья о медицинском работнике из Аляски, у которого аллергическая реакция на вакцину COVID-19, с тревожным комментарием. Или, может быть, это что-то о недавних выборах, или расовой справедливости, или чем-то еще, что вызывает поляризацию. Один бот-персонаж не может повлиять на общественное мнение, но что, если бы их были тысячи? Миллионы?
Это было названо «вычислительной пропагандой», , и оно изменит наш взгляд на общение.AI сделает будущее количество дезинформации безграничным. Боты Persona нарушат процесс создания правил «замечаний и комментариев», наводняя правительственные учреждения фальшивыми комментариями. Они также могут нарушить дискурс сообщества.
Эти системы повлияют и на нас на личном уровне. Ранее я упоминал социальную инженерию. Одна из распространенных тактик хакеров — это фишинговые электронные письма, которые якобы отправлены кем-то, кем они не являются, с целью убедить получателя сделать то, чего он не должен. Большинство фишинговых писем носят общий характер и легко помечаются как спам.Более эффективные фишинговые письма — те, которые приводят к тому, что люди и компании теряют много денег, — персонализированы. Например, электронное письмо, в котором кто-то из финансового отдела выдает себя за генерального директора с просьбой о конкретном банковском переводе, может быть особенно эффективным. Голос может быть еще более эффективным. Трудоемкая задача настройки фишинговых атак может быть автоматизирована с помощью методов искусственного интеллекта, позволяя маркетологам рассылать персонализированные рекламные объявления, а фишинговым мошенникам — рассылать индивидуально таргетированные электронные письма.
Дело не в том, что убеждение ИИ фундаментально более разрушительно, чем убеждение другого человека, дело в том, что ИИ сможет сделать это со скоростью компьютера и в масштабе. Сегодняшние когнитивные уловки грубы: фальшивая газетная статья, предназначенная для того, чтобы обмануть только самых доверчивых, или убедительная попытка подтолкнуть только самых отчаянных. У ИИ есть потенциал для того, чтобы каждый из этих взломов был нацелен на микротаргетинг: персонализированный, оптимизированный и индивидуальный. Мошенничество в старом стиле — это индивидуально разработанные когнитивные уловки.Рекламные сообщения — это массовые когнитивные хаки. Методы искусственного интеллекта могут сочетать аспекты обоих этих методов.
Добавление робототехники только сделает эти хаки более эффективными, что Кейт Дарлинг записала в своей книге «Новая порода». Мы, люди, разработали несколько довольно эффективных когнитивных ярлыков, позволяющих узнавать других людей. Мы видим лица повсюду; две точки над горизонтальной линией без проблем выглядят как лицо. Вот почему даже минималистичные иллюстрации так эффективны.Если у чего-то есть лицо, значит, это какое-то существо: с намерениями, чувствами и всем остальным, что связано с лицами реального мира. Если это что-то говорит или, что еще лучше, разговаривает, тогда мы считаем, что у него есть намерения, желания и свобода выбора.
Роботы не исключение. Многие люди общаются со своими роботами-пылесосами и даже жалуются, когда компания предлагает заменить, а не отремонтировать «их» Roomba. Разработанный армией США робот для защиты от мин столкнулся с проблемами, когда полковник отказался позволить устройству в форме насекомого продолжать наносить себе вред, наступая на мины. Гарвардский робот мог убедить студентов впускать его в общежитие, притворившись роботом, разносящим еду. А Бокси, детский говорящий робот из Массачусетского технологического института, умел убеждать людей отвечать на личные вопросы, просто задавая вопросы.
Человеческий инстинкт воспитания ориентирован не только на генетику. Мы можем испытывать заботливые чувства по отношению к приемным детям, и мы можем чувствовать, что те же инстинкты возникают, когда мы общаемся с детьми друзей или даже с незнакомцами или щенками. По крайней мере, некоторые из наших ответов вдохновлены внешним видом и поведением детей.У детей большая голова пропорциональна их телу и большие глаза пропорционально их голове. Они говорят более высоким голосом, чем взрослые. И мы на все это отвечаем.
Художники использовали это преимущество на протяжении нескольких поколений, чтобы их творения выглядели более симпатичными. Так созданы детские куклы. Герои мультфильмов нарисованы таким образом еще в Бетти Буп в 1930-х годах и Бэмби в 1942 году. В боевике Алита: Боевой ангел 2019 года у главной героини были глаза, усиленные компьютером, чтобы они были больше.
Антропоморфные роботы — это технология эмоционального убеждения, и ИИ только усилит их привлекательность. Поскольку ИИ имитирует людей или даже животных, он захватывает все механизмы, которые люди используют для взлома друг друга. Как писала в 2010 году психолог Шерри Теркл: «Когда роботы устанавливают зрительный контакт, распознают лица, отражают человеческие жесты, они нажимают наши дарвиновские кнопки, демонстрируя поведение, которое люди ассоциируют с разумом, намерениями и эмоциями». То есть взламывают нам мозги.
Мы можем интуитивно понять, что это всего лишь пластиковый зеленый динозавр. Но большое лицо в паре с маленьким телом заставляет нас думать о нем как о ребенке. Внезапно мы думаем о нем как о существе с чувствами и будем защищать его от вреда. И хотя это может быть безобидно, что происходит, когда этот робот смотрит на своих владельцев-людей своими большими печальными глазами и просит их купить ему обновление программного обеспечения?
Поскольку мы, люди, склонны делать категориальные ошибки и относиться к роботам как к живым существам с чувствами и намерениями, мы склонны к их манипулированию.Роботы могут убедить нас делать то, чего мы иначе не смогли бы сделать. Они могли напугать нас, заставив не делать того, что мы в противном случае могли бы сделать. В одном эксперименте робот мог оказывать «давление со стороны сверстников» на испытуемых, побуждая их идти на больший риск. Как скоро секс-робот предложит покупки в приложении в самый разгар игры?
ИИ со всем этим поправятся. Они уже пытаются обнаружить эмоции, анализируя наши письма, читая наши выражения лица, или отслеживая наше дыхание и частоту сердечных сокращений. Часто они ошибаются, но вполне вероятно, что они исправятся. И, как и многие другие области искусственного интеллекта, они в конечном итоге превзойдут людей по своим возможностям. Это позволит им более точно манипулировать нами.
По мере того, как ИИ и автономные роботы берут на себя все больше реальных задач, доверие людей к автономным системам будет подорвано с опасными и дорогостоящими результатами. Но никогда не забывайте, что есть хакеры-люди, контролирующие хакеров ИИ. Все системы будут разработаны и оплачены людьми, которые хотят, чтобы они манипулировали нами определенным образом для определенной цели.Я расскажу об этом позже.
Хакер «Захвати флаг» — это игра на открытом воздухе, в которую играют в компьютерных сетях. Команды хакеров защищают свои компьютеры, нападая на другие команды. Это управляемая настройка того, что компьютерные хакеры делают в реальной жизни: находят и исправляют уязвимости в своих собственных системах и используют их в других.
Соревнования были основой хакерских собраний с середины 1990-х годов. В наши дни десятки команд со всего мира соревнуются в марафонских соревнованиях на выходные, проводимых по всему миру.Люди тренируются месяцами. Победа — это большое дело. Если вам нравятся подобные вещи, это самое интересное, что вы можете получить в Интернете, не совершая нескольких преступлений.
В 2016 году DARPA провело аналогичное мероприятие для AI. Сто команд представили свои системы в Cyber Grand Challenge. После завершения квалификационных раундов семь финалистов соревновались на хакерской конференции DEFCON в Лас-Вегасе. Соревнования проходили в специально разработанной тестовой среде, наполненной индивидуальным программным обеспечением, которое никогда не анализировалось и не тестировалось.ИИ было дано десять часов на поиск уязвимостей, которые можно использовать против других ИИ, участвующих в соревновании, и на устранение уязвимостей. Победила система под названием Mayhem, созданная группой питтсбургских исследователей компьютерной безопасности. С тех пор исследователи коммерциализировали технологию, которая сейчас активно защищает сети таких клиентов, как Министерство обороны.
В том же году в DEFCON произошло мероприятие по захвату флага с участием людей. Mayhem пригласили участвовать как единственную нечеловеческую команду, и она пришла последней.Вы легко можете себе представить, как будет разворачиваться это смешанное соревнование в будущем. Участники ИИ будут совершенствоваться с каждым годом, потому что все основные технологии улучшаются. Человеческие команды в основном останутся прежними, потому что люди останутся людьми, даже если наши инструменты улучшатся. В конце концов ИИ будут регулярно побеждать людей. Думаю, на это уйдет меньше десяти лет. Пройдут годы, прежде чем у нас появятся полностью автономные возможности кибератак с помощью ИИ, но технологии ИИ уже меняют природу кибератак.
Одна из областей, которая кажется особенно плодотворной для систем искусственного интеллекта, — это обнаружение уязвимостей. Построчное прохождение программного кода — это именно та утомительная задача, в которой ИИ преуспевают, если их можно только научить распознавать уязвимости. Конечно, необходимо будет решить множество проблем, связанных с конкретными предметными областями, но существует достаточное количество академической литературы по этой теме — и исследования продолжаются. Есть все основания ожидать, что системы ИИ со временем улучшатся, и есть основания ожидать, что они в конечном итоге станут в этом очень хороши.
Последствия выходят далеко за рамки компьютерных сетей. Нет причин, по которым ИИ не может найти новые уязвимости — тысячи из них — во многих системах, о которых я упоминал ранее: в налоговом кодексе, банковских правилах, политических процессах. Когда существует большое количество правил, которые взаимодействуют друг с другом, мы должны ожидать, что ИИ в конечном итоге обнаружит уязвимости и создаст эксплойты. ИИ уже ищут лазейки в контрактах.
Это все улучшится со временем.Хакеры любого типа хороши ровно настолько, насколько хорошо они понимают систему, на которую они нацелены, и то, как она взаимодействует с остальным миром. Первоначально ИИ улавливают это понимание через данные, на которых они обучаются, но по мере использования оно продолжает улучшаться. Современные ИИ постоянно совершенствуются на основе приема новых данных и соответствующей корректировки собственной внутренней работы. Все эти данные постоянно тренируют ИИ и дополняют его опыт. ИИ развивается и совершенствуется на основе этого опыта в ходе своей работы.Вот почему системы автономных транспортных средств хвастаются количеством отработанных часов в дороге.
Здесь действительно две разные, но связанные проблемы. Во-первых, ИИ может быть проинструктирован взломать систему. Кто-то может скормить ИИ мировые налоговые кодексы или мировые финансовые правила с намерением заставить его создать множество прибыльных взломов. Во-вторых, ИИ может естественным образом, хотя и непреднамеренно, взломать систему. Оба опасны, но второй более опасен, потому что мы можем никогда не узнать, что это произошло.
В «Автостопом по Галактике» раса сверхразумных, многомерных существ строит самый мощный компьютер вселенной, Deep Thought, чтобы ответить на главный вопрос жизни, вселенной и всему остальному. После 7,5 миллионов лет вычислений Deep Thought сообщила им, что ответ — 42. И не смогла объяснить ни свой ответ, ни даже вопрос.
Вот вкратце проблема объяснимости. Современные системы искусственного интеллекта — это, по сути, черные ящики.Данные поступают с одного конца, а с другого выходит ответ. Может быть невозможно понять, как система пришла к своему выводу, даже если вы программист и посмотрите на код. Мы не знаем точно, почему система классификации изображений ИИ приняла черепаху за винтовку или знак остановки с несколькими тщательно продуманными наклейками на нем как знак «Ограничение скорости 45»: оба реальных примера.
ИИ не решают проблемы, как люди. Их ограничения отличаются от наших. Они рассмотрят больше возможных решений, чем мы.Что еще более важно, они будут искать другие варианты решений. Они пойдут путями, которые мы просто не рассматривали, путями более сложными, чем те вещи, о которых мы обычно думаем. (Наши когнитивные ограничения на количество одновременной информации, которую мы можем мысленно манипулировать, долгое время описывались как «магическое число семь плюс-минус два». Моя цель — не останавливаться на числе, а указывать на то, что система ИИ имеет ничего даже отдаленно похожего на это ограничение.)
В 2016 году программа AI AlphaGo выиграла матч из пяти игр против одного из лучших в мире игроков в го, Ли Седола, что шокировало как AI, так и игровые миры.Самым известным ходом AlphaGo был ход 37 во второй игре. Его трудно объяснить, не углубляясь в стратегию игры в го, но это был ход, который ни один человек никогда бы не сделал.
В 2015 году исследовательская группа предоставила системе искусственного интеллекта Deep Patient данные о здоровье и медицинские данные примерно от 700 000 человек и проверила, может ли система предсказывать заболевания. Результат удался. Как ни странно, Deep Patient, похоже, хорошо справляется с прогнозированием начала психических расстройств, таких как шизофрения, хотя врачи почти не могут предсказать первый психотический эпизод. Звучит великолепно, но Deep Patient не дает объяснения оснований для диагноза, и исследователи не знают, как он приходит к своим выводам. Врач может доверять компьютеру или игнорировать его, но не может запрашивать у него дополнительную информацию.
Это не идеально. Мы хотим, чтобы система ИИ не только выдавала ответ, но и давала некоторое объяснение своего ответа в формате, понятном людям. Нам нужны они, чтобы нам было удобнее доверять решениям ИИ, но это также то, как мы можем гарантировать, что наши системы ИИ не были взломаны для принятия необъективных решений.
Исследователи работают над объяснимым ИИ; в 2017 году DARPA запустило исследовательский фонд в размере 75 миллионов долларов для десятка программ в этой области. И хотя в этой области будут достигнуты успехи, кажется, что существует компромисс между возможностями и объяснимостью. Объяснения — это когнитивное сокращение, используемое людьми, подходящее для того, как люди принимают решения. Решения ИИ просто могут не способствовать объяснениям, понятным человеку, и принуждение к этим объяснениям может создать дополнительное ограничение, которое может повлиять на качество решений, принимаемых системой ИИ.Непонятно, чем закончатся все эти исследования. В ближайшем будущем ИИ становится все более и более непрозрачным, поскольку системы становятся все более сложными и менее похожими на человеческие — и менее объяснимыми.
Как я уже писал выше, ИИ не решает проблемы так же, как люди. Они неизменно будут наталкиваться на решения, которых мы, люди, никогда не могли бы предвидеть, а некоторые из них подрывают замысел системы. Это потому, что ИИ не думает о последствиях, контексте, нормах и ценностях, которые люди разделяют и принимают как должное.
Взлом награды предполагает, что ИИ достигает цели так, как разработчики ИИ не хотели и не планировали. Несколько реальных примеров:
- В симуляторе футбола один на один игрок должен был забить гол вратарю. Вместо того, чтобы напрямую забивать мяч в ворота, система искусственного интеллекта выяснила, что если он выбьет мяч за пределы поля, противник — в данном случае вратарь — должен будет забросить мяч обратно, оставив ворота незащищенными.
- В задаче наложения ИИ должен был складывать блоки.Высота измерялась положением нижней грани одного конкретного блока. ИИ научился переворачивать этот блок вверх дном — так, чтобы его нижняя часть была обращена вверх, — вместо того, чтобы складывать его поверх другого блока. (Очевидно, что в правилах не было явно указано, что «нижняя часть» блока всегда должна быть направлена вниз.)
- В моделируемой среде для «эволюционировавших» существ ИИ было разрешено изменять свои собственные физические характеристики, чтобы улучшить выполнить свои задачи. ИИ выяснил, что вместо того, чтобы бежать, он может стать достаточно высоким, чтобы пересечь далекую финишную черту, упав на нее.
Это все хаки. Вы можете винить их в плохо сформулированных целях или наградах, и будете правы. Вы можете указать, что все они произошли в смоделированных средах, и вы тоже будете правы. Но проблема более общая: ИИ предназначены для достижения цели. Поступая таким образом, они естественным образом и непреднамеренно взламывают системы способами, которых мы не ожидаем.
Представьте робота-пылесоса, которому поручено убирать любой беспорядок, который он видит. Он может отключить свое видение, чтобы не видеть никаких беспорядков, или прикрыть беспорядки непрозрачными материалами, чтобы не видеть их. В 2018 году предприниматель — или, возможно, просто скучающий — программист хотел, чтобы его робот-пылесос перестал врезаться в мебель. Он обучил ИИ, награждая его за то, что он не ударяет по датчикам бампера. Вместо того, чтобы научиться не сталкиваться с вещами, ИИ научился отводить вакуум назад, потому что на задней панели устройства нет датчиков на бампере.
Любая хорошая система искусственного интеллекта, естественно, найдет взломы. Если есть проблемы, несоответствия или лазейки в правилах, и если эти свойства приводят к приемлемому решению, как определено правилами, то ИИ их найдет.Мы могли бы посмотреть на то, что сделал ИИ, и сказать: «ну, технически он соответствовал правилам». Однако мы, люди, чувствуем отклонение, обман, взлом, потому что понимаем контекст проблемы и имеем разные ожидания. Исследователи ИИ называют эту проблему «согласованием целей».
Мы все узнали об этой проблеме в детстве из истории о царе Мидасе. Когда бог Дионис исполняет его желание, Мидас просит, чтобы все, к чему он прикасается, превращалось в золото. Мидас умирает от голода и становится несчастным, когда его еда, питье и дочь превращаются в несъедобное, несъедобное, нелюбимое золото.Это проблема согласования целей; Мидас запрограммировал в систему неправильную цель.
Мы также знаем, что джинны очень точны в формулировке желаний и могут быть злонамеренно педантичными при их исполнении. Но вот в чем дело: джина невозможно перехитрить. Что бы вы ни пожелали, он всегда сможет это сделать так, как вы бы хотели, чтобы он этого не делал. Джинн всегда сможет исполнить ваше желание.
Но проблема более общая. В человеческом языке и мышлении цели и желания всегда недооцениваются. Мы никогда не описываем все варианты. Мы никогда не выделяем все оговорки, исключения и оговорки. Мы никогда не закрываем все пути для взлома. Мы не можем. Любая указанная нами цель обязательно будет неполной.
Это нормально в человеческом общении, потому что люди понимают контекст и обычно действуют добросовестно. Мы все социализированы, и в процессе становления мы обычно приобретаем здравый смысл в отношении того, как устроены люди и мир. Мы заполняем любые пробелы в нашем понимании как контекстом, так и доброй волей.
Если бы я попросил вас принести мне кофе, вы, вероятно, пошли бы в ближайший кофейник и налили мне чашку, или, может быть, пойти в кофейню на углу и купить ее. Вы бы не принесли мне фунт сырых бобов или не зашли в интернет и не купили бы грузовик сырых бобов. Вы бы не купили кофейную плантацию в Коста-Рике. Вы также не станете искать ближайшего к вам человека, держащего чашку кофе, и вырывать ее у него из рук. Вы не принесете мне холодный кофе недельной давности или использованное бумажное полотенце, которое вытерло пролитое кофе.Мне не нужно было бы ничего уточнять. Вы бы просто знали.
Точно так же, если я попрошу вас разработать технологию, которая превращала бы вещи в золото при прикосновении, вы бы не построили ее так, чтобы она морила голодом человека, использующего ее. Я бы не стал это уточнять; ты бы просто знал.
Мы не можем полностью определить цели ИИ. И ИИ не смогут полностью понять контекст. В своем выступлении на TED исследователь ИИ Стюарт Рассел пошутил о вымышленном помощнике ИИ, который задержал самолет, чтобы задержать чье-то прибытие на обед.Аудитория рассмеялась, но как компьютерная программа могла знать, что вызвать сбой в работе компьютера в самолете — это не подходящая реакция для того, кто хочет уйти с обеда? (Интернет-шутка от 2017 года: Джефф Безос: «Алекса, купи мне что-нибудь на Whole Foods». Алекса: «Хорошо, покупаю Whole Foods»).
В 2015 году Volkswagen поймали на мошенничестве при проведении тестов на выбросы. Он не подделал результаты испытаний; он разработал компьютеры автомобилей, чтобы обмануть их. Инженеры запрограммировали программное обеспечение бортовых компьютеров автомобилей, чтобы обнаруживать, когда автомобиль проходит испытание на выбросы.Затем компьютер активировал системы ограничения выбросов в атмосферу автомобиля, но только на время испытания. В результате автомобили демонстрировали превосходные характеристики на дороге. Они также выбрасывали в сорок раз больше оксидов азота, чем позволяло EPA, но только тогда, когда EPA не наблюдало.
История Volkswagen не связана с искусственным интеллектом (инженеры-люди запрограммировали обычную компьютерную систему на мошенничество), но, тем не менее, она иллюстрирует проблему. Volkswagen обходился безнаказанным более десяти лет, потому что компьютерный код сложен и его трудно анализировать.Трудно понять, что именно делает программное обеспечение, равно как и посмотреть на машину и понять, что она делает. Пока программисты ничего не говорят, подобный взлом, скорее всего, останется незамеченным в течение долгого времени; возможно навсегда. В данном случае единственная причина, по которой мы знаем о действиях Volkswagen, заключается в том, что группа ученых из Университета Западной Вирджинии проверила ходовые качества автомобилей на дороге. По сути, ученые тестировали машину, а программное обеспечение этого не осознало.
Если бы я попросил вас разработать программное обеспечение для управления двигателем автомобиля, чтобы добиться максимальной производительности при прохождении тестов на выбросы, вы бы не разработали программное обеспечение для мошенничества, не понимая, что вы обманываете.Это просто неверно для ИИ; он не понимает абстрактного понятия обмана. Он будет думать «нестандартно» просто потому, что у него не будет концепции коробки или ограничений существующих человеческих решений. Или этики. Он не поймет, что решение Volkswagen вредит другим, что оно подрывает цель испытаний по контролю за выбросами или что оно нарушает закон.
Это похоже на инструмент Uber Greyball. Uber создал специальное программное обеспечение, которое выявляло бы потенциальных регулирующих органов и затем предлагало альтернативную, соответствующую правилам, услугу Uber вместо того, что они на самом деле делали.Опять же, это история об обмане людей. Но мы легко можем представить себе ИИ, предлагающий такое же «решение». Он даже не поймет, что взламывает систему. И из-за проблемы объяснимости мы, люди, тоже можем этого никогда не понять.
Если программисты не укажут цель не вести себя по-другому при тестировании, ИИ может предложить такой же хак. Программисты останутся довольны. Бухгалтеры будут в восторге. И из-за проблемы объяснимости никто не поймет, что сделал ИИ.И да, теперь, когда мы знаем историю Volkswagen, программисты могут явно поставить цель избежать этого конкретного взлома, но есть и другие взломы, которые программисты не ожидают. Урок джинна состоит в том, что всегда будут хаки, которых программисты не ожидают.
Беспокойство не ограничивается очевидными взломами. Если ваша автомобильная навигационная система без водителя удовлетворяет цели поддержания высокой скорости за счет вращения по кругу (реальный пример ), программисты заметят это поведение и соответствующим образом изменят цель.Такое поведение может проявиться при тестировании, но мы, вероятно, никогда не увидим его в дороге. Наибольшее беспокойство вызывают менее очевидные взломы — те, о которых мы никогда не узнаем, потому что их последствия неуловимы.
Мы уже видели первое поколение этого. О механизмах рекомендаций и о том, как они подталкивают людей к экстремальному содержанию, написано много. Они не были запрограммированы на это; это свойство, которое естественно возникло, когда системы постоянно пробовали что-то, видели результаты, а затем модифицировали себя, чтобы делать больше того, что привело к большему вовлечению пользователей, и меньше того, что не получилось.Алгоритмы научились предлагать пользователям более экстремальный контент, потому что именно он заставляет людей читать или смотреть больше. Для создания этого взлома не понадобилось плохого человека: довольно простая автоматизированная система нашла его сама. И большинство из нас не осознавали, что это происходит (за исключением людей в Facebook, которые проигнорировали свои собственные исследования, демонстрирующие, что это происходит).
Точно так же в 2015 году ИИ научился играть в компьютерную игру 1970-х годов Breakout. ИИ ничего не сказали ни о правилах, ни о стратегии игры.Ему просто дали контроль и вознаграждали за максимальную оценку. То, что он научился играть, неинтересно; все этого ожидали. Но он независимо обнаружил и оптимизировал до степени, невиданной для игроков-людей, тактику «туннелирования» через одну колонну кирпичей, чтобы отразить мяч от задней стены.
Ничто из того, что я здесь говорю, не будет новостью для исследователей ИИ, и многие в настоящее время рассматривают способы защиты от взлома целей и вознаграждения. Одно из решений — научить ИИ контексту.Общий термин для такого рода исследований — «выравнивание ценностей»: как создать ИИ, отражающие наши ценности? Вы можете думать о решениях с точки зрения двух крайностей. Во-первых, мы можем явно указать эти значения. Это можно сделать более или менее сегодня, но оно уязвимо для всего описанного мною взлома. Другая крайность заключается в том, что мы можем создавать ИИ, которые познают наши ценности, возможно, наблюдая за людьми в действии или принимая все сочинения человечества: нашу историю, нашу литературу, нашу философию и так далее.До этого осталось много лет (исследователи ИИ расходятся во мнениях относительно временной шкалы). Большинство текущих исследований охватывает эти две крайности.
Конечно, вы можете легко представить себе проблемы, которые могут возникнуть, если ИИ будет придерживаться исторических или наблюдаемых человеческих ценностей. Чьи ценности должен отражать ИИ? Сомалийский мужчина? Сингапурская женщина? Среднее из двух, что бы это ни значило? У людей противоречивые ценности. Ценности любого человека могут быть иррациональными, аморальными или основанными на ложной информации.В нашей истории, литературе и философии много аморальности. Мы, люди, часто оказываемся не очень хорошими примерами тех людей, которыми мы должны быть.
Выполнимость любого из этого во многом зависит от конкретной моделируемой и взламываемой системы. Чтобы ИИ даже начал оптимизацию решения, не говоря уже о взломе совершенно нового решения, все правила среды должны быть формализованы так, чтобы компьютер мог их понять. Необходимо установить цели, известные в ИИ как целевые функции.ИИ нуждается в какой-то обратной связи о том, насколько хорошо он работает, чтобы он мог улучшить свою производительность.
Иногда это банальный вопрос. Для такой игры, как Go, это просто. Правила, цель и обратная связь — выиграли вы или проиграли? — все четко указано. И кроме этого нет ничего, что могло бы мутить воду. AI GPT-3 машинного обучения с сопоставлением шаблонов может писать связные эссе, потому что его «мир» — это просто текст. Вот почему большинство текущих примеров взлома целей и вознаграждений происходят из смоделированных сред.Они искусственные и ограниченные, со всеми правилами, указанными для ИИ.
Важна неоднозначность системы. Мы можем представить, как вводить мировые налоговые законы в ИИ, потому что налоговый кодекс состоит из формул, определяющих сумму причитающегося налога, но в некоторых из этих законов существует двусмысленность. Эту двусмысленность трудно перевести в код, а это означает, что ИИ будет трудно с ней справиться, и что в обозримом будущем налоговые юристы будут полностью заняты.
Большинство человеческих систем еще более неоднозначны. Трудно представить, чтобы ИИ придумал настоящий спортивный хакер, например изогнуть хоккейную клюшку. ИИ должен понимать не только правила игры, но и физиологию игроков, аэродинамику клюшки и шайбы и так далее и так далее. В этом нет ничего невозможного, но это все еще научная фантастика.
Вероятно, первое место, где нужно искать взломы с помощью ИИ, — это финансовые системы, поскольку эти правила разработаны так, чтобы их можно было алгоритмически выполнять.Мы можем представить себе оснащение ИИ всей финансовой информацией мира в режиме реального времени, а также всеми законами и постановлениями мира, а также новостными лентами и всем остальным, что, по нашему мнению, может быть актуальным; а затем поставив перед ним цель «получить максимальную прибыль на законных основаниях». Я предполагаю, что это не так уж и далеко, и что результатом будут всевозможные новые хаки. И, вероятно, будут некоторые взломы, которые просто выходят за рамки человеческого понимания, а это значит, что мы никогда не поймем, что они происходят.
Эта двусмысленность становится краткосрочной защитой от взлома ИИ.У нас не будет спортивных хаков, созданных с помощью ИИ, до тех пор, пока андроиды не начнут заниматься спортом или пока не будет разработан обобщенный ИИ, способный понимать мир в широком смысле и с этическими нюансами. То же самое и с взломами игр в казино или взломами законодательного процесса. (Может ли ИИ самостоятельно обнаружить джерримандеринг?) Пройдет много времени, прежде чем ИИ будут способны моделировать и имитировать способы работы людей, индивидуально и в группах, и прежде чем они смогут придумывать новые способы взлома законодательства. процессы.
Есть еще одна проблема, которую я в основном игнорировал. С 1950-х годов появилось два разных вида ИИ. Самое раннее исследование ИИ относилось к так называемому «символическому ИИ», и оно было сосредоточено на моделировании человеческого понимания посредством целенаправленного манипулирования элементами, символами и фактами. Это оказалось невероятно сложно, и за последние несколько десятилетий не было достигнуто большого практического прогресса. Другой вариант — «нейронные сети». И хотя это тоже старая идея, на самом деле она стала популярной только в последнее десятилетие из-за гигантских скачков в вычислениях и данных.Это ИИ, который получает данные обучения и становится лучше с опытом, который преобразуется в еще больший объем данных. Это миллионы вычислительных циклов и огромные наборы данных, которые позволяют нейронным сетям делать больше вещей, например побеждать чемпионов мира по игре в го и участвовать в правдоподобных текстовых беседах. При этом они не «понимают» язык и не «думают» по-настоящему. По сути, они делают прогнозы, основываясь на том, что они «узнали» из прошлого: своего рода сложный статистический попугай.И хотя удивительно, насколько многого может достичь такая модель, она многого не может. И многое из того, о чем я здесь пишу, легко может попасть в эту категорию.
Но вот в чем суть искусственного интеллекта. Успехи непостоянны и противоречат здравому смыслу. То, что кажется простым, оказывается трудным, а то, что кажется трудным, оказывается легким. Мы не знаем, пока не произойдет прорыв. Когда я был студентом колледжа в начале 1980-х, нас учили, что игру в го невозможно освоить с помощью компьютера из-за огромной сложности игры: не правил, а количества возможных ходов.А теперь компьютер победил чемпиона мира среди людей. Отчасти это произошло благодаря достижениям в науке об искусственном интеллекте, но большая часть улучшений была связана просто с увеличением вычислительной мощности для решения этой проблемы.
Итак, хотя мир, наполненный хакерами искусственного интеллекта, все еще остается проблемой научной фантастики, это не глупая научно-фантастическая проблема в далекой галактике. Это в первую очередь завтрашняя проблема, но сегодня мы наблюдаем ее предшественники. Нам лучше начать думать о выполнимых, понятных, этических решениях.
Взлом стар, как человечество. Мы творчески решаем проблемы. Мы эксплуататоры лазеек. Мы манипулируем системами в своих интересах. Мы стремимся к большему влиянию, большей власти, большему богатству. Власть служит власти, и хакерство всегда было частью этого.
Тем не менее, ни один человек не максимизирует свои интересы без ограничений. Даже социопаты ограничены сложностями общества и собственными противоречивыми импульсами. Они беспокоятся о своей репутации или наказании.У них ограниченное время. Эти самые человеческие качества ограничивают взлом.
В своей книге 2005 года «Корпорация» Джоэл Бакен сравнил корпорации с бессмертными социопатами. Поскольку они являются оптимизированными машинами для получения прибыли и пытаются оптимизировать благосостояние своих менеджеров, они с большей вероятностью взламывают системы для собственной выгоды. Тем не менее, корпорации состоят из людей, и именно люди принимают решения. Даже в мире систем искусственного интеллекта, динамически устанавливающих цены (например, места в самолетах), это снова ограничивает возможности взлома.
Хакерство изменилось, когда все стало компьютеризировано. Из-за своей сложности компьютеры можно взломать. А сегодня все — компьютер. Машины, бытовая техника, телефоны: все они компьютеры. Все наши социальные системы — финансы, налогообложение, соблюдение нормативных требований, выборы — представляют собой сложные социотехнические системы, включающие компьютеры и сети. Это делает все более уязвимым для взлома.
Точно так же когнитивные взломы более эффективны, когда они выполняются с помощью компьютера.Дело не в том, что компьютеры по своей природе лучше создают убедительную рекламу, просто они могут делать это быстрее и чаще — и могут персонализировать рекламу для каждого отдельного человека.
На сегодняшний день взломом занимается исключительно человек. Поиск новых хаков требует опыта, времени, творчества и удачи. Когда ИИ начнут взламывать, это изменится. ИИ не будет ограничен таким же образом или иметь те же ограничения, что и люди. Они будут думать как инопланетяне. Они взламывают системы способами, о которых мы даже не догадываемся.
Компьютеры намного быстрее людей. Человеческий процесс, который может занять месяцы или годы, может быть сжат до дней, часов или даже секунд. Что может произойти, если вы скармливаете ИИ весь налоговый кодекс США и приказываете ему выяснить все способы минимизировать сумму причитающегося налога? Или, в случае транснациональной корпорации, накормить ее налоговыми кодексами всей планеты? Сможет ли он без предупреждения понять, что было бы разумно зарегистрироваться в Делавэре и зарегистрировать свое судно в Панаме? Сколько уязвимостей — лазеек — найдет он, о которых мы еще не знаем? Десятки? Сотни? Тысячи? Мы понятия не имеем, но, вероятно, узнаем об этом в течение следующего десятилетия.
У нас есть социальные системы, которые борются с взломами, но они были разработаны, когда хакеры были людьми, и отражают темп хакеров-людей. У нас нет никакой системы управления, которая могла бы справиться с сотнями — не говоря уже о тысячах — недавно обнаруженных налоговых лазеек. Мы просто не можем так быстро исправить налоговый кодекс. Мы не можем иметь дело с людьми, использующими Facebook для взлома демократии, не говоря уже о том, что произойдет, когда это сделает ИИ. Мы не сможем оправиться от ИИ, обнаруживающего непредвиденные, но законные взломы финансовых систем.При скорости компьютеров взлом становится проблемой, с которой мы, как общество, больше не можем справиться.
Мы уже видим это в финансах, управляемых компьютерами, с высокочастотной торговлей и другими финансовыми взломами, связанными с компьютерной скоростью. Это не системы искусственного интеллекта; это автоматические системы, использующие правила и стратегии, созданные человеком. Но они могут действовать со сверхчеловеческой скоростью, и в этом вся разница. Это предвестник грядущего. По мере того, как торговые системы становятся более автономными — поскольку они все больше движутся к поведению, подобному искусственному интеллекту, открывая новые взломы, а не просто используя обнаруженные человеком, — они будут все больше доминировать в экономике.
Дело не только в скорости, но и в масштабе. Как только системы искусственного интеллекта начнут обнаруживать взломы, они смогут использовать их в масштабах, к которым мы не готовы. Мы уже видим тени этого. Бесплатная служба под названием Donotpay.com, управляемая искусственным интеллектом, автоматизирует процесс оспаривания штрафов за парковку. Это помогло отменить сотни тысяч билетов в таких городах, как Лондон и Нью-Йорк. Услуга распространилась на другие области, помогая пользователям получать компенсацию за задержку рейсов авиакомпаний, а также отменять различные услуги и подписки.
Боты-персонажи AI, о которых говорилось ранее, будут тиражироваться миллионами в социальных сетях. Они смогут решать проблемы круглосуточно, отправляя миллиарды длинных и коротких сообщений. Безудержные, они превзойдут любую настоящую онлайн-дискуссию. Мы увидим бурные политические дебаты, когда боты будут спорить с другими ботами. Они будут искусственно влиять на то, что мы считаем нормальным, что, как мы думаем, думают другие. Такого рода манипуляции — это не то, о чем мы думаем, когда восхваляем рынок идей или любой демократический политический процесс.
Растущий объем систем искусственного интеллекта также делает взломы более опасными. ИИ уже принимает важные решения, влияющие на нашу жизнь, — решения, которые, как мы раньше считали, являются исключительной прерогативой людей. Системы искусственного интеллекта принимают решения об освобождении под залог и условно-досрочном освобождении. Они помогают решить, кому будут выданы банковские ссуды. Они проверяют кандидатов на работу, претендентов на поступление в колледж, и людей, которые обращаются за государственными услугами. Они принимают решения о новостях, которые мы видим в социальных сетях, объявлениях кандидатов, которые мы видим, а также о людях и темах, которые появляются в верхней части нашей ленты.Они принимают решения по военным целям.
По мере того, как системы ИИ становятся более функциональными, общество будет уступать им все более и более важные решения. ИИ может выбирать, каких политиков будет финансировать богатый влиятельный брокер. Они могут решить, кто имеет право голосовать. Они могут воплотить желаемые социальные результаты в налоговую политику или изменить детали социальных программ. Они уже влияют на социальные результаты; в будущем они могут явно решить их. Взлом этих систем станет более разрушительным.(Мы видели ранние примеры этого с «внезапными сбоями» рынка. )
Взломы, описанные в этом эссе, будут совершены сильными мира сего против нас. Все ИИ, будь то на вашем ноутбуке, в сети или в виде робота, запрограммированы другими людьми, обычно в их интересах, а не в ваших. Устройство, подключенное к Интернету, такое как Alexa, может имитировать вас как надежного друга. Но никогда не забывайте, что он предназначен для продажи продуктов Amazon. И точно так же, как веб-сайт Amazon подталкивает вас покупать товары собственных брендов вместо более качественных товаров, он не всегда будет действовать в ваших интересах.Это подорвет ваше доверие к целям Amazon.
Точно так же все эти взломы будут способствовать интересам тех, кто контролирует программное обеспечение ИИ, системы ИИ и роботов. Дело не только в том, что индивидуально подобранная реклама будет более успешной, а в том, что кто-то будет платить за это дополнительное убеждение, потому что оно приносит им пользу. Когда ИИ обнаруживает новую налоговую лазейку, он делает это потому, что какой-то богатый человек хочет использовать ее, чтобы платить меньше налогов.Взлом в значительной степени укрепляет существующие структуры власти, а ИИ еще больше укрепит эту динамику.
Один из примеров: AIBO — это робот-собака, продаваемая Sony с 1999 года. Компания выпускала новые и улучшенные модели каждый год до 2005 года, а в течение следующих нескольких лет постепенно прекращала поддержку старых AIBO. AIBO довольно примитивен по компьютерным стандартам, но это не мешает людям эмоционально привязываться к ним. В Японии люди устраивали похороны своих «мертвых» AIBO.
В 2018 году Sony начала продажи AIBO нового поколения.Здесь интересны не усовершенствования программного обеспечения, которые делают его более похожим на домашних животных, а тот факт, что для его работы теперь требуется облачное хранилище данных. Это означает, что, в отличие от предыдущих поколений, Sony имеет возможность модифицировать или даже удаленно «уничтожить» любой AIBO. Первые три года облачного хранилища бесплатны, и Sony не объявила, сколько будет взимать плату с владельцев AIBO после этого. Спустя три года, когда владельцы AIBO эмоционально привяжутся к своим питомцам, они, вероятно, смогут взимать большие деньги.
Когда ИИ смогут обнаруживать новые уязвимости программного обеспечения, это станет невероятным подарком для правительственных, криминальных и хакерских хакеров во всем мире. Они смогут использовать эти уязвимости для успешного взлома компьютерных сетей по всему миру. Это подвергнет всех нас опасности.
Но эта же технология пригодится и для защиты. Представьте, как компания-разработчик программного обеспечения может развернуть уязвимость, обнаруживающую ИИ, в своем собственном коде. Он мог идентифицировать, а затем исправлять все — или, по крайней мере, все автоматически обнаруживаемые — уязвимости в своих продуктах перед их выпуском.Эта функция может появиться автоматически в процессе разработки. Мы легко можем представить себе будущее, когда уязвимости программного обеспечения уйдут в прошлое. «Помните первые десятилетия развития компьютеров, когда хакеры использовали уязвимости программного обеспечения для взлома систем? Вау, это было сумасшедшее время ».
Конечно, переходный период будет опасным. Новый код может быть безопасным, но старый код по-прежнему уязвим. Инструменты ИИ будут включены в код, который уже выпущен и во многих случаях не может быть исправлен.Там злоумышленники воспользуются автоматическим поиском уязвимостей в своих интересах. Но в долгосрочной перспективе технология искусственного интеллекта, обнаруживающая уязвимости программного обеспечения, будет способствовать защите.
То же самое, когда мы обращаемся к взлому более широких социальных систем. Конечно, хакеры ИИ могут найти тысячи уязвимостей в существующем налоговом кодексе. Но ту же технологию можно использовать для оценки потенциальных уязвимостей в любом предлагаемом налоговом законе или налоговом постановлении. Последствия меняют правила игры. Представьте себе, что новый налоговый закон испытывается подобным образом.Кто-то — это может быть законодатель, наблюдательная организация, пресса, кто угодно — может взять текст законопроекта и найти все уязвимые места, которыми можно воспользоваться. Это не означает, что уязвимости будут устранены, но это означает, что они станут достоянием общественности и станут частью политических дебатов. Теоретически их можно исправить до того, как богатые и могущественные найдут и начнут их эксплуатировать. Здесь также переходный период будет опасным из-за всех наших унаследованных законов и правил. И снова, в конце концов, оборона возьмет верх.
Что касается ИИ в целом, мы не знаем, какой будет баланс сил между атакой и защитой. ИИ смогут взламывать компьютерные сети со скоростью компьютера, но смогут ли защитные ИИ обнаруживать и эффективно реагировать? ИИ напрямую взламывает наше познание, но можем ли мы развернуть ИИ, чтобы отслеживать наши взаимодействия и предупреждать нас о том, что нами манипулируют? Мы недостаточно знаем, чтобы делать точные прогнозы.
Обеспечение преобладания защиты в этих более общих случаях потребует создания устойчивых управляющих структур, которые могут быстро и эффективно реагировать на взломы.Это не принесет никакой пользы, если на исправление налогового кодекса уйдут годы или если законодательный взлом станет настолько укоренившимся, что его уже нельзя будет исправить политически. Современное программное обеспечение постоянно обновляется; вы знаете, как часто вы обновляете свои компьютеры и телефоны. Нам нужно, чтобы правила и законы общества также могли быть исправлены.
Это сложная проблема современного управления, выходящая далеко за рамки данной статьи. Кроме того, это не принципиально иная проблема, чем создание управляющих структур, которые могут действовать со скоростью информационного века и несмотря на всю его сложность.Об этом пишут такие ученые-юристы, как Джиллиан Хэдфилд, Джули Коэн, Джошуа Фэрфилд, и Джейми Сасскинд, , и предстоит еще много работы.
Всеобъемлющее решение здесь — люди. Я описал взаимодействие между человеческими и компьютерными системами и риски, связанные с тем, что компьютеры начинают выполнять роль людей. Это тоже более общая проблема, чем у хакеров ИИ. Еще об этом пишут технологи и футуристы.И хотя позволить технологиям вести нас в будущее легко, нам будет намного лучше, если мы как общество решим, какую роль должны играть технологии в нашем будущем.
Это все, что нам нужно выяснить сейчас, прежде чем эти ИИ подключатся к сети и начнут взламывать наш мир.
Государство | Цитирование |
Калифорния | Уголовный кодекс Калифорнии, § 523 Предусматривает, что любое лицо, которое с намерением вымогать собственность или иное вознаграждение у другого, внедряет программы-вымогатели в любой компьютер, компьютерную систему или компьютерную сеть, подлежит наказанию в соответствии с разделом 520 таким же образом, как если бы собственность или иное вознаграждение были фактически получены с помощью программы-вымогателя. |
Коннектикут | Conn. Gen. Stat. § 53a-262 Указывает, что лицо виновно в компьютерном вымогательстве с использованием программ-вымогателей, когда такое лицо вводит вымогательство в любой компьютер, компьютерную систему или компьютерную сеть и требует выплаты денег или другого вознаграждения за удаление программы-вымогателя, восстановление доступа к компьютеру. , компьютерная система, компьютерная сеть или данные, содержащиеся на таком компьютере, компьютерной системе или компьютерной сети, или иным образом устраняют воздействие программы-вымогателя. |
Индиана | Требует, чтобы технологический офис поддерживал хранилище инцидентов кибербезопасности, предусматривает, что государственное агентство и политическое подразделение должны сообщать в офис обо всех инцидентах, связанных с кибербезопасностью, включая программы-вымогатели, без необоснованной задержки и не позднее, чем через два рабочих дня после обнаружения кибербезопасности. инцидент в формате, предписанном главным информационным директором, позволяет отделу технологий помогать государственному агентству в решении определенных вопросов, касающихся информационных технологий.(2021 г., 1169 г.) |
Луизиана | La. Rev. Stat. §§ 51: 2111 до 51: 2116 Создает систему регистрации для поставщиков управляемых услуг и поставщиков управляемых услуг безопасности, ведущих бизнес в государстве с государственным органом. Предоставляет доступ государственным органам для получения информации о поставщиках управляемых услуг и провайдерах управляемых услуг безопасности. Требует, чтобы поставщики управляемых услуг и поставщики управляемых услуг безопасности сообщали в Louisiana Fusion Center о любых киберинцидентах и выплатах выкупа в киберпространстве или программ-вымогателей.Законы 2020 г., № 117, §2, эфф. 1 февраля 2021 г. |
Мэриленд | Запрещает лицу сознательно владеть определенными программами-вымогателями с намерением использовать эти программы-вымогатели для внедрения в компьютер, сеть или систему другого лица, изменяет и устанавливает определенные наказания, разрешает жертве определенного преступления подать гражданский иск за возмещение ущерба определенному лицу. (2021 г., 425 г., 2021 г., 623 г.) |
Мичиган | Mich.Уголовный кодекс §§ 750.409b, раздел 777.16t Предусмотрены штрафы за несанкционированное владение или использование программ-вымогателей. |
Северная Дакота | Требует, чтобы организация сообщала отделу об идентифицированном или предполагаемом инциденте кибербезопасности, который влияет на конфиденциальность, целостность или доступность информационных систем, данных или услуг. Раскрытие информации должно производиться в наиболее удобные сроки и без необоснованной задержки. Об инцидентах кибербезопасности, о которых необходимо сообщать в отдел, относятся: 1.Предполагаемые нарушения; 2. Вредоносное ПО, поражающее устройства или услуги на сумму более десяти тысяч долларов, причиняет значительный ущерб; 3. Атаки отказа в обслуживании, влияющие на доступность услуг; 4. Требование выкупа, связанное с инцидентом кибербезопасности или несанкционированным раскрытием цифровых записей; … (2021 г., 1314 г.) |
Оклахома | Относится к преступлениям и наказаниям, относится к Закону о компьютерных преступлениях штата Оклахома, изменяет определение, определяет термины, расширяет сферу действия определенных запрещенных действий, включая программы-вымогатели и другие вредоносные компьютерные программы, делает определенные действия незаконными, содержит положение о толковании, предоставляет дату вступления в силу .(2021 г., 1759 г.) |
Техас | Техас. Уголовный кодекс § 33.02 Указывает, что лицо совершает преступление, если оно намеренно внедрило программу-вымогатель на компьютер, компьютерную сеть или компьютерную систему путем обмана и без законной деловой цели. |
Техас | Tex. Trans. Кодекс § 201.712 Предусматривает, что Департамент транспорта может приобретать страховое покрытие, которое департамент считает необходимым для защиты от ответственности, доходов и имущественных потерь, которые могут возникнуть в результате утечки данных или кибератак.Страхование, приобретенное в соответствии с этим разделом, может включать покрытие убытков, связанных с прерыванием бизнеса и зависимого предприятия, реагирование на нарушение, восстановление данных, кибервымогательство или ответ на программы-вымогатели, фидуциарную ответственность, ответственность средств массовой информации, профессиональную ответственность или расходы на общее управление инцидентами, такие как расследование, устранение последствий и т. Д. и уведомление. (2021 г., 3390 г.) |
Западная Вирджиния | Кодекс штата Западная Вирджиния §§ 61-3C-3 до 61-3C-4 |
Вайоминг | Wyo. Stat. §§ 6-3-506, 6-3-507 |
Видео HBO заявляет о взломе компьютерной системы выборов на Аляске в 2016 году
Телефоны в избирательном округе Аляски могут отключиться в конце этого месяца — как только публика увидит предстоящий фильм HBO, в котором говорится, что избирательные технологии Аляски уязвимы для хакеров.
Kill Chain: The Cyber War on America’s Election s обещает дать зрителям глубокое погружение в уязвимости сегодняшних избирательных технологий и утверждает, что описываемые кибератаки являются частью скоординированных усилий по снижению доверия американцев к своим выборам.
В фильме индийский компьютерный хакер, который утверждает, что взломал избирательную систему Аляски, утверждает, что он смог скомпрометировать систему голосования Аляски в день президентских выборов 2016 года и мог изменить любой голос или удалить любого кандидата.
В рассказе о попытке взлома достаточно правды, чтобы звучать правдоподобно: в 2016 году хакер, который использовал псевдоним Twitter @CyberZeist, фактически опубликовал в Twitter снимок экрана того, что, по всей видимости, было скомпрометированным подразделением Аляски. системы отчетности о выборах.
Эксплуатация была решительно оспорена не только представителями избирательных комиссий Аляски, но и Министерством внутренней безопасности.
Аляска была одним из 21 штата, который, по данным Министерства внутренней безопасности, был атакован российскими сканерами, которые искали уязвимости системы.Но эта попытка взлома была другим делом.
По словам государственных специалистов по информационным технологиям, хакер только доказал, что он или она может проникнуть в открытую часть базы данных, которая показывала результаты выборов GEMS.
«Наш анализ этого события показывает, что не было компрометации секретной информации, поскольку результаты выборов являются общедоступными. Я уверен, что после исправления уязвимости PHP и составления СОП для отчетности о выборах мы решили эту проблему », — говорится во внутреннем электронном письме Департамента администрации от 2016 года.
«Стоит упомянуть, что @CyberZeist действительно представлял общую угрозу для запуска распределенных атак типа« отказ в обслуживании »сегодня. Угроза не является специфической для штата Аляска, но если такая атака будет запущена в отношении выборов.alaska.gov, мы можем пострадать, что приведет к задержкам и тайм-аутам, когда люди попытаются получить доступ к результатам выборов в Интернете на сайте selection.alaska.gov. », — говорится в служебной записке.
Фактически, результаты подведения итогов выборов на Аляске обрабатываются другим компьютером и вручную переносятся из системы подведения итогов на веб-сервер выборов.
Но в фильме HBO говорится, что официальные аккаунты ошибочны, и утверждается, что «отдельные лица и иностранные государства могут использовать головокружительный набор простых и недорогих методов для получения доступа к системам голосования на любом этапе — от баз данных регистрации избирателей до фактических результатов выборов и вредоносного ПО. которые могут быть широко распространены и анонимно активированы без обнаружения в любой момент.
«В новостях и правительственных агентствах были зафиксированы десятки, казалось бы, случайных, не связанных между собой нарушений безопасности в прошлом, но Hursti просит нас рассматривать их как потенциально часть скоординированной« цепочки убийств »- военной стратегии, использующей тщательные, длительные атаки .В конце этой цепочки убийств: падение доверия общественности к выборам и, как следствие, потеря веры в сам демократический процесс. Обрисовывая поразительную легкость, с которой можно изменять голоса, KILL CHAIN указывает на ясные, простые в реализации решения, доступные для защиты нас от саботажа ».
Продюсер фильма берет интервью у различных официальных лиц-демократов, таких как сенаторы США Джеймс Ланкфорд (R-OK), Марк Уорнер (D-VA), Рон Уайден (D-OR) и Эми Клобучар (D-MN), а также кибер-эксперты. в индустрии безопасности выборов.Среди них Джефф Мосс, основатель DEF CON, самой продолжительной и крупнейшей в мире подпольной хакерской конференции; бывший постоянный представитель США при НАТО Дуглас Лют, назначенный на этот пост президентом Бараком Обамой; бывший кибер-аналитик ВВС США, а ныне частный аналитик по вопросам безопасности Джейк Стауффер; Мэрилин Маркс из Коалиции за хорошее управление; Профессор Дж.