Российская социальная сеть ВКонтакте присоединяется к The Standoff 365 Bug Bounty
// 19–20 мая, Парк Горького, Москва
PHDAYS MerchВКонтакте запустила баг-баунти-программу на платформе The Standoff 365 Bug Bounty, разработанной Positive Technologies для выявления уязвимостей. Программа Bug Bounty предлагает вознаграждение сторонним исследователям за обнаружение недостатков безопасности и сообщение о них до того, как злоумышленники смогут их найти и использовать.
Баг баунти ВКонтакте состоит из более чем 40 проектов. Награды варьируются от 100 до 30 000 долларов США в зависимости от уровня серьезности обнаруженных уязвимостей.
ВКонтакте одной из первых в России предложила вознаграждение внешним исследователям за сообщения об уязвимостях. С 2013 года компания получила более 15 000 отчетов об ошибках и использовала их для устранения уязвимостей и усиления защиты персональных данных пользователей. В общей сложности компания выплатила более 3 миллионов долларов в виде вознаграждений за обнаружение ошибок.
Безопасность наших клиентов и их доверие к сервисам ВКонтакте всегда были для нас приоритетом. Мы используем различные инструменты для усиления нашей защиты от кибербезопасности, и мы уже давно пользуемся преимуществами программ вознаграждения за обнаружение ошибок для проверки качества наших услуг. Этот метод имеет реальную практическую пользу. За последние полгода количество кибератак в России увеличилось в разы, и мы рады, что российские компании запускают собственные платформы для поиска ошибок. Внедрив нашу программу Bug Bounty в The Standoff 365, мы повысим способность ВКонтакте выявлять уязвимости и устранять их как можно быстрее.
Алексей Волков
Вице-президент и директор по информационной безопасности ВКонтакте
Компании нужна смелость, чтобы привлекать внешних экспертов по кибербезопасности. Но это именно тот способ, которым компании могут получить достоверную и объективную оценку своей безопасности, чтобы они могли устранить уязвимости в своей ИТ-инфраструктуре до того, как злоумышленники обнаружат их и нанесут непоправимый ущерб. Запуск программы поощрения за ошибки означает думать в долгосрочной перспективе. Это признак того, что компания открыта и заботится о безопасности персональных данных своих клиентов. Тот факт, что у вас есть программа вознаграждений, заставляет людей доверять вам больше. Мы рады приветствовать ВКонтакте на нашей платформе и надеемся на дальнейшее сотрудничество в области кибербезопасности с таким опытным организатором баг-баунти.
Ярослав Бабин
CPO The Standoff 365
Positive Technologies объявила о запуске платформы The Standoff 365 Bug Bounty на PHDays 11 в мае этого года. Исследователи безопасности, работающие над платформой, будут вознаграждены за выявление уязвимостей, а также за демонстрацию способов их использования. 1600 исследователей уже зарегистрировались в The Standoff 365 Bug Bounty и отправили 49 отчетов об уязвимостях, причем первый отчет был отправлен через 60 минут после запуска платформы. Positive Technologies и российская сеть супермаркетов «Азбука Вкуса» были первыми компаниями, разместившими на платформе свои программы вознаграждения за обнаружение ошибок.
Создатели The Standoff 365 Bug Bounty ожидают, что в 2022 году от 10 до 20 организаций добавят свои награды за обнаружение ошибок на платформе. К 2025 году это число может превысить 100. Будущее академических кругов, вероятно, будет преобразовано языковыми моделями ИИ, такими как ChatGPT. Вот некоторые другие инструменты, о которых стоит знать.
«ChatGPT изменит будущее академических исследований. Но большинство ученых не знают, как разумно его использовать», — недавно написал в Твиттере Муштак Билал, научный сотрудник Университета Южной Дании.
Академия и искусственный интеллект (ИИ) все больше переплетаются, и по мере того, как ИИ продолжает развиваться, вполне вероятно, что ученые будут продолжать либо использовать его потенциал, либо высказывать опасения по поводу связанных с ним рисков.
«В академических кругах есть два лагеря. Первый — это первопроходцы искусственного интеллекта, а второй — профессора и ученые, считающие, что ИИ подрывает академическую честность», — сказал Билал Euronews Next.
Он прочно занимает место в первом лагере.
Профессор, родившийся в Пакистане и живущий в Дании, считает, что при продуманном использовании языковые модели ИИ могут помочь демократизировать образование и даже дать больше знаний.
Многие эксперты отмечают, что точность и качество вывода, создаваемого языковыми моделями, такими как ChatGPT, не заслуживают доверия. Сгенерированный текст иногда может быть предвзятым, ограниченным или неточным.
Но Билал говорит, что понимание этих ограничений в сочетании с правильным подходом может заставить языковые модели «сделать для вас много качественной работы», особенно для научных кругов.
Пошаговые подсказки для создания «структуры»
Чтобы создать структуру, достойную академических кругов, Билал говорит, что необходимо освоить пошаговые подсказки, технику, традиционно используемую в поведенческой терапии и специальном обучении.
Он включает в себя разбиение сложных задач на более мелкие, более управляемые шаги и предоставление подсказок или подсказок, чтобы помочь человеку успешно выполнить каждое из них. Затем подсказки постепенно усложняются.
В поведенческой терапии постепенное подсказывание позволяет людям обрести чувство уверенности. В языковых моделях это позволяет «гораздо более сложные ответы».
В ветке Твиттера Билал показал, как ему удалось заставить ChatGPT предоставить «блестящий план» для журнальной статьи, используя пошаговые подсказки.
В своей демонстрации Билал начал с того, что спросил ChatGPT о конкретных концепциях, имеющих отношение к его работе, а затем об авторах и их идеях, направляя управляемого ИИ чат-бота через контекстуальные знания, относящиеся к его эссе.
«Теперь, когда у ChatGPT есть четкое представление о моем проекте, я прошу его создать схему для журнальной статьи», — объяснил он, прежде чем объявить, что полученные им результаты, вероятно, сэкономят ему «20 часов труда».
«Если бы я просто написал по абзацу для каждого пункта плана, у меня был бы приличный черновик моей статьи».
Инкрементальные подсказки также позволяют ChatGPT и другим моделям искусственного интеллекта помогать, когда речь идет о том, чтобы «сделать образование более демократичным», сказал Билал.
Некоторые люди могут позволить себе роскошь обсуждать с профессорами Гарварда или Оксфорда возможные академические наброски или точки зрения для научных статей, «но не все», — пояснил он.
«Если бы я был в Пакистане, у меня не было бы доступа к профессорам Гарварда, но мне все равно нужно было бы обдумывать идеи. Поэтому вместо этого я мог бы использовать приложения ИИ, чтобы вести интеллектуальную беседу и помогать мне формулировать свое исследование».
Недавно Билал заставил ChatGPT думать и говорить как профессор Стэнфорда. Затем, чтобы проверить достоверность результатов, он задал те же вопросы реальному профессору Стэнфорда. Результаты были ошеломляющими.
ChatGPT — это лишь одно из многих приложений на базе искусственного интеллекта, которые вы можете использовать для академического письма или для имитации разговоров с известными учеными.
Вот другое программное обеспечение на основе ИИ, которое поможет вам в учебе, подобранное Билалом.
По словам Билала: «Если ChatGPT и Google Scholar поженятся, их детищем будет Consensus — поисковая система на базе искусственного интеллекта».
Консенсус похож на большинство поисковых систем, но его отличает то, что вы задаете вопросы Да/Нет, на которые он дает ответы с консенсусом академического сообщества.
Пользователи также могут спрашивать Консенсуса об отношениях между понятиями и о причине и следствии чего-либо. Например: улучшает ли иммиграция экономику?
Консенсус ответит на этот вопрос, заявив, что большинство исследований показали, что иммиграция в целом улучшает экономику, а также предоставит список научных работ, которые использовались для достижения консенсуса, и, в конечном итоге, поделится резюме лучших статей, которые он проанализировал. .
Поисковая система с искусственным интеллектом способна отвечать только на шесть тем: экономика, сон, социальная политика, медицина, психическое здоровье и пищевые добавки.
Elicit, «ассистент ИИ-исследователя», по словам его основателей, также использует языковые модели для ответов на вопросы, но его знания основаны исключительно на исследованиях, что позволяет проводить «интеллектуальные беседы» и мозговой штурм с очень знающим и проверенным источником.
Программное обеспечение также может находить релевантные статьи без точного соответствия ключевым словам, обобщать их и извлекать ключевую информацию.
Хотя языковые модели, такие как ChatGPT, не предназначены для преднамеренного введения в заблуждение, было доказано, что они могут генерировать текст, не основанный на фактической информации, и включать фальшивые цитаты из статей, которых не существует.
Но есть приложение на основе искусственного интеллекта, которое дает вам реальные ссылки на действительно опубликованные статьи — Scite.
«Это один из моих любимых инструментов для улучшения рабочих процессов, — сказал Билал.
Подобно Elicit, при задании вопроса Scite выдает ответы с подробным списком всех статей, цитируемых в ответе.
«Кроме того, если я сделаю заявление, и это утверждение будет опровергнуто или подтверждено разными людьми или различными журналами, Scite даст мне точный номер. Так что это действительно очень, очень мощно».
«Если бы я вел какой-нибудь семинар по письму, я бы научил пользоваться этим приложением».
«Research Rabbit — это невероятный инструмент, который УСКОРЯЕТ ваши исследования. Лучшая часть: это БЕСПЛАТНО. Но большинство ученых об этом не знают», — написал в Твиттере Билал.
Названный его основателями «Spotify исследований», Research Rabbit позволяет добавлять научные статьи в «коллекции».
Эти коллекции позволяют программному обеспечению узнавать об интересах пользователя, предлагая новые релевантные рекомендации.
Research Rabbit также позволяет визуализировать научную сеть статей и соавторства в виде графиков, чтобы пользователи могли следить за работой одного автора или темы и глубже погружаться в свои исследования.
- ChatPDF
ChatPDF — это приложение на базе искусственного интеллекта, которое упрощает и ускоряет чтение и анализ журнальных статей.
«Это похоже на ChatGPT, но для исследовательских работ», — сказал Билал.