как мы ВКонтакте делаем собственный переводчик / Хабр
Машинный перевод — область технологий, которая успешно приближает будущее. Он разрушает языковой барьер и помогает людям, которые говорят на разных языках, понимать друг друга. Один клик — и можно прочитать и понять статью, написанную на незнакомом языке, или сообщения в мессенджере от людей из любой точки мира. А значит, получить больше информации и найти новых знакомых. Это с точки зрения пользователя.
Со стороны разработчиков сервисов тоже, казалось бы, современное машинное обучение уже близко к тому, чтобы достаточно было сделать import model_name from your_favourite_framework — и всё заработало. К сожалению, это не совсем так. Нельзя просто взять готовый претрейн и надеяться, что он будет хорошо переводить все именованные сущности. Нельзя просто обучиться на готовом кусочке WMT‑данных и верить в то, что переводчик будет адекватно работать на специфичном домене. Нельзя просто взять обычный токенизатор и трансформер — и рассчитывать на корректный перевод текстов с шумами и опечатками.
Поэтому этот гайд будет немного более сложным, чем импорт моделей. Под катом вы не найдёте серебряной пули — только реальный опыт и подходы, которые помогли нам ВКонтакте справиться со всеми нюансами и запустить собственный переводчик.
ВКонтакте переводчик пригодится во многих направлениях. Например, мы можем мгновенно переводить сообщения в мессенджере. Или посты с русского на английский и другие языки: это помогает иностранцам знакомиться с уникальным для нашей соцсети контентом и находить для себя что‑то потенциально интересное. Кроме того, мы можем привлечь новых пользователей с помощью автоматических переводов постов, отдавая их в выдачу поисковиков.
При этом переводчик — не только удобный инструмент для рядового пользователя. Машинный перевод стал базой для всей современной обработки естественного языка. Именно для него изначально придумывали рекуррентные сети, sequence‑to‑sequence модели, аттеншен, трансформеры, которые теперь применяются в самых разных сферах машинного обучения.
Что выбрать, когда нужен автоматический перевод
Сейчас существует множество решений, чтобы затащить машинный перевод в свой продукт. У каждого свои плюсы и минусы. Прежде чем решить, что использовать, необходимо взвесить все за и против.
#1: Облачное решение
Самый простой и надёжный вариант — купить готовое облачное решение у опытных вендоров. Это может быть Яндекс, Google, DeepL — все они умеют хорошо переводить на большое количество языков. У них вы найдёте большинство популярных языковых пар, быстро подключитесь к удобному API и ни о чём не будете переживать. Но любое удобство стоит денег: нужно заранее оценить количество запросов и возможные всплески нагрузки — они могут обойтись вам очень дорого.
#2: Открытые модели
Такой вариант отлично подойдёт тем, кто собирается переводить тексты общих тематик и имеет достаточно ресурсов, чтобы хостить эти модели. В репозиториях Hugging Face’a можно найти множество самых разных моделей машинного перевода: начиная с классических en-ru моделей и заканчивая современными мультиязычными, способными переводить тексты с 200 языков. В качестве быстрого продакшен-решения можно воспользоваться готовым движком Argos, который тоже поддерживает много языковых пар и поставляется вместе с готовой API-обёрткой LibreTranslate.
По мере использования таких моделей могут проявляться недостатки. Например, качество переводов может сильно отличаться от коммерческих решений. Это становится заметнее на специфических и нестандартных доменах. Например, если переводчик обучался на legal-текстах, вряд ли он сможет хорошо переводить мемы и повседневную речь. Дело здесь не только в различии лексики. Модели могут впитать смещённые знания о мире и начать некорректно переводить некоторые сущности в заданных контекстах.
Все эти ошибки можно пытаться исправлять костылями и хардкодингом. Но в какой-то момент оказывается, что проблем настолько много, что легче всё сделать с нуля.
#3: Обучаем свои модели
Третий вариант требует глубоких технических знаний, ресурсов на сбор данных и разработку моделей. Но в результате вы получаете огромный опыт и удобный инструмент, с помощью которого сможете вносить любые правки в модели и точнее управлять поведением переводчика.
Для нас именно разработка собственного решения стала оптимальным вариантом, так как:
у нас огромное количество данных для перевода и высокая нагрузка — так что покупка готового решения оказалась бы дороже, чем разработка собственного;
открытые решения, которые мы тестировали в ранних версиях продукта, в наших условиях и на нашем домене быстро проявили свои недостатки, проблемы и уязвимости.
Поэтому вскоре мы начали разработку собственного решения. Дальше расскажу об опыте, полученном в процессе.
Гайд по созданию собственного переводчика
Сейчас в задачах машинного перевода чаще всего используются решения на основе нейронных сетей. Для их работы нужны два базовых компонента: токенайзер и нейросетевая модель. Токенайзер разбивает текст на маленькие сущности — токены, которые потом передаются на обработку в нейросетевую модель. Токенами могут быть целые слова, их небольшие части или отдельные символы. Существует несколько алгоритмов токенизации, каждый из которых обладает своими достоинствами и недостатками. Чуть больше про них можно почитать в хорошем обзоре от Hugging Face.
В качестве нейросетевой модели мы используем трансформер типа «энкодер‑декодер». Энкодер вычисляет внутреннее представление исходного текста, на основе которого декодер генерирует перевод. За деталями работы этой архитектуры можно обратиться к оригинальной статье или подробному объяснению с картинками.
Немного о предобученных моделях
Упростить разработку переводчика можно с помощью больших предобученных мультиязычных моделей. Для задач перевода лучше всего подходят архитектуры типа «энкодер‑декодер», например mBART и mT5. Эти модели можно взять за основу и дообучить их на своём небольшом корпусе. Плюсы такого подхода — быстрая сходимость во время обучения и более высокое качество, так как эти модели уже знают структуру языка и им достаточно выучить взаимосвязь между языками.
Другие предобученные модели, такие как LaBSE и LASER, могут использоваться для аугментации и фильтрации данных, речь о которых пойдёт дальше.
Мультиязычные претрейны типа M2M и NLLB могут стать хорошей отправной точкой для ваших исследований. Они покрывают большой набор языковых пар, плюс в оригинальных работах можно найти множество нюансов и тонкостей обучения нейросетевых переводчиков.
Какую бы вспомогательную модель мы ни использовали, важно обращать внимание на то, под какими лицензиями они распространяются и какие есть ограничения на их использование.
Данные для машинного перевода
Данные — очень важная часть любой задачи машинного обучения. Итоговое качество переводов чаще зависит от количества и чистоты данных, чем от каких-то архитектурных излишеств моделей. Усилия по разметке и очистке данных приносят гораздо больше пользы, чем аналогичный объём работы по улучшению модели. Секрет хорошего нейросетевого переводчика — большой и чистый корпус.
Bitext-корпусы
Основной тип данных для обучения переводчика — это bitext-корпусы, состоящие из пар текстов «оригинал — перевод». Такие данные можно размечать самим, но для этого потребуется штат профессиональных переводчиков, много времени и ресурсов. Часть данных можно найти в открытом доступе: например, есть хорошие большие агрегаторы OPUS и Statmt.org. Для автоматизации поиска данных можно пользоваться утилитой mtdata.
Однако открытые корпусы часто страдают от большого количества шумов и сильного смещения домена. Например, один из крупнейших корпусов UNPC состоит из официальных и юридических текстов. Используя только такой корпус, сложно научиться хорошо переводить повседневную речь или художественную литературу.
Mono-корпусы
Другой полезный источник — это mono-корпусы, состоящие из большого объёма обычных текстов. Чаще всего нас интересуют данные, близкие к нашему домену, которые относительно легко найти в открытом доступе. На основе mono-корпусов мы предобучаем разные вспомогательные модели, начиная с токенизаторов и заканчивая большими языковыми претрейнами типа BART и T5. Самые популярные и доступные источники таких данных: mC4 и Common Crawl.
Нужно больше данных, милорд
Bitext mining может пригодиться, если у вас есть ещё один источник данных — полупараллельные тексты. Например, русско-английский перевод книги «Война и мир» Льва Толстого. Очевидно, что профессиональный переводчик при работе с текстом адаптирует его, меняет порядок предложений и их структуру. Если бы мы захотели собрать из такого книжного перевода параллельный корпус, последовательно сопоставляя предложения, то ничего хорошего бы не получилось.
Мы сможем решить эту проблему, если воспользуемся энкодерами типа LASER или LaBSE. Особенность их работы заключается в том, что чем ближе два предложения на разных языках по смыслу, тем ближе будут их эмбеддинги в векторном пространстве. Посчитав эмбеддинги для каждого предложения из оригинала, сможем поискать ближайшие эмбеддинги предложений в переводе книги. Затем по некоторому порогу близости векторов выбрать пары, которые являются переводом друг друга.
Авторы, предложившие такой подход, делали свой поиск внутри огромного корпуса Common Crawl и снапшотов Википедии, и поделились с нами новыми крупными датасетами CCMatrix и WikiMatrix. Для поиска пар переводов на таких обширных корпусах требуются большие вычислительные мощности. Мы, в свою очередь, можем немного упростить задачу и искать пары в заведомо известных полупараллельных корпусах: ими могут быть переводы отдельных книг, статей, новостей и публикаций.
Прогоняем предложения через LaBSE и ищем ближайшие по косинусной близостиУлучшить качество переводов и немного адаптировать домен помогает back-translation. В основе этого метода лежит очень простая идея: «давайте переведём обратным переводчиком текст на другой язык, после чего развернём получившуюся пару». Тогда у нас появятся семплы «плохой перевод» — «хороший оригинал», которые можно добавить к основной обучающей выборке. Такой подход может помочь нам значительно увеличить обучающий корпус и улучшить обучение модели: чистые target-side тексты помогут нам качественнее обучать языковую модель на стороне декодера, а грязные source-side тексты помогут сделать энкодер более устойчивым к разным шумам.
Важно правильно подбирать соотношение между back-translated и основной частью обучающих данных. Кроме этого следует добавлять source-side токен к back-translated данным, показывающий модели, что эти данные являются сгенерированными. Такие лайфхаки помогают стабильнее учить переводчик и снижать вероятность переобучения.
Чистка данных
В любом корпусе текстов для переводов могут присутствовать шумы. Чтобы улучшить качество переводчика и стабилизировать обучение, нужно фильтровать плохие пары переводов. Чаще всего это делается с помощью разных эвристик: соотношения длины исходного и переведённого текста или словарных символов к символам пунктуации; степенью word-alignment связности или величиной энтропии языковой модели; близостью эмбеддингов мультиязычных кодировщиков типа LaBSE или LASER.
В открытых корпусах часто можно встретить синтетические переводы, появившиеся в результате работы старых автоматических переводчиков. Обучение на таких текстах плохо влияет на качество переводчика, поэтому их тоже важно фильтровать. Чаще всего это делают с помощью отдельного классификатора, который обучают на заранее собранном датасете.
Большая часть описанных фильтров есть в репозитории OpusFilter — там их можно изучить или вдохновиться на написание собственных скриптов фильтрации.
Препроцессинг и постпроцессинг данных
С одной стороны, когда мы обучаем нейронную модель, стараемся использовать достаточно чистые и структурированные данные, чтобы получать качественный перевод целого текста. С другой — в реальности с текстом может произойти что угодно и работать модели придётся совсем в других условиях. Пользователь может писать текст с ошибками или опечатками, периодически нажимать Caps Lock, вставлять ссылки, даты, произвольные числа. Такие сущности плохо влияют на нейронную модель: она может начать игнорировать часть сущностей или, наоборот, их чрезмерно повторять. Помимо этого, в тексте могут присутствовать элементы разметки и меншены, которые нужно переводить с учётом контекста и оставлять разметку целостной. Поэтому, чтобы наш автоматический перевод хорошо работал в реальных приложениях, нужен дополнительный препроцессинг и постпроцессинг данных.
Сделать препроцессинг помогут два подхода: с использованием word-alignment’ов и служебных токенов.
Word-alignment модели находят взаимосвязь между словами в исходном и переведённом тексте. На вход они получают два текста, а на выходе отдают пары лексически связанных слов. Из готовых решений наиболее известны статистические fast-align, eflomal и нейросетевая SimAlign.
Алгоритм следующий:
Нормализуем все сущности и запоминаем их положение в исходном тексте: слова, написанные заглавными буквами, привести к нижнему регистру, именованные сущности заменить на служебные, избавиться от разметки.
Очищенный текст переводим нейросетевой моделью.
Вычисляем word alignments.
Восстанавливаем сущности: на основе полученных word alignments ищем связанные токены и их позиции в переведённом тексте. Далее придаём им исходный вид: восстанавливаем заглавное написание, именованные сущности и вставляем разметку.
Служебные токены — это токены, которые остаются неизменными и занимают подходящее место в переводе. Например, токен [mask]
может использоваться для маскирования ссылок. Заменив в исходном тексте ссылку на [mask]
, мы ожидаем встретить этот токен в переводе, чтобы после поставить на его место исходную ссылку.
Точно так же можно решить задачу частичного перевода с помощью глоссариев. Для этого оставим служебный токен на месте слова, который мы потом переведём с помощью статичного глоссария. После того как нейронная модель завершит свою работу, мы найдём в переведённом тексте этот служебный токен и вставим на его место словарный перевод.
Для вложенных сущностей и CAPS’а можно ввести токены границ [ls]
и [rs]
. Будем отмечать ими нужные регионы в исходном тексте, чтобы затем восстановить разметку в переводе.
Чтобы служебные токены выполняли свою задачу, обучающий корпус необходимо аугментировать. Для этого можно использовать модели word-alignment’а и маскировать случайный набор связанных слов служебными токенами.
Маскируем все, что хотим однозначно увидеть в переводе. На постпроцессинге возвращаем сущности на свои местаИнференс моделей
После успешного обучения моделей стоит задуматься о том, как эти модели использовать в продакшен-среде. Для ускорения и оптимизации инференса PyTorch- / Flax- / Tensorflow-модели следует сконвертировать в ONNX, TensorRT или CTranslate2 в зависимости от рабочего окружения. Последний — удобный фреймворк для инференса трансформеров типа «энкодер-декодер» и «декодер» (encoder-decoder transformer & decoder-only transformer) с поддержкой различных ускорений. В некоторых случаях может пригодиться дистилляция и квантизация моделей.
Для хостинга моделей лучше всего использовать микросервисную архитектуру, где каждый отдельный сервис отвечает за инференс отдельной языковой пары, и отдельная часть занимается препроцессингом и определением исходного языка. В таком случае будет гораздо проще масштабировать систему в зависимости от языковых потребностей пользователей.
Собираем всё вместе: пошаговый гайд о том, как обучить свой переводчик
Сперва необходимо понять, какую продуктовую задачу будет решать сервис автоматического перевода. В зависимости от этого принимаем решение: покупать ли облачный сервис, использовать открытые модели или разрабатывать что-то своё.
Начинаем собирать всевозможные данные. Ищем открытые корпусы, занимаемся bitext minig’ом и разметкой собственных датасетов. Анализируем свой текстовый домен и подбираем наиболее подходящие mono-корпусы.
Подготавливаем всё для обучения: очищаем корпусы, готовим логику препроцессинга, аугментируем данные и обучаем токенизаторы.
На основе собранных данных обучаем первые версии нейронных моделей. Следим за метриками, подбираем гиперпараметры. Делаем несколько итераций аугментации данных с помощью back-tranlsation’а.
Дописываем препроцессинг и постпроцессинг данных. Тестируем финальное качество переводов и исследуем возникающие corner-кейсы.
Подготавливаем модели к выкатке в продакшен. Занимаемся конвертацией и оптимизацией моделей, разработкой микросервисов, собираем воедино весь пайплайн переводов.
После выкатки моделей работа не заканчивается. Дальше нас ждёт бесконечный процесс доразметки данных, оптимизаций, правки багов перевода и переобучения моделей.
Получается, что если разложить всё по полочкам и разобраться, то окажется, что сделать собственный переводчик вполне реально. Всегда есть много разных вариантов: и облака, и открытые решения, и что-то самописное.
Разные продуктовые задачи требуют разных решений. Для нас расчёты показали, что разработка собственного решения окупается примерно за неделю, если сравнивать с использованием облачных сервисов, и позволяет получить потенциально неограниченную пропускную способность и гибкость.
1 марта состоится прямой эфир с главой Минспорта Пензенской области Евгенией Бочкаревой — Общество — Пенза СМИ
Фото: ЦУР Пензенской области.
1 марта состоится прямой эфир с Министром спорта Пензенской области Евгенией Бочкаревой.
В ходе трансляции на площадке ЦУР в социальной сети «Вконтакте» Евгения Александровна расскажет, какие объекты для занятия спортом появятся в регионе в текущем году, а также о планах реализации нацпроекта «Демография».
Помимо этого, глава Минспорта Пензенской области сообщит о развитии инфраструктуры в регионе для занятий физкультурой.
Прямой эфир состоится в 11:00.
Читайте также — В Пензе сегодня будут названы победители командного чемпионата федерации настольного тенниса России
Наш канал в Яндекс.Дзен
Новости СМИ2
Пензенцы пожаловались в соцсети на подтопление участка улицы Антонова
Растаявший снег осложнил жизнь водителям и пешеходам.
Минлесхоз Пензенской области не установил фактов загрязнения Ласточкиного озера
Чтобы очистить водоем, нужно вступить в специальную федеральную программу.
Пензенцам рассказали, какая участь постигнет дипломы бакалавров
В Пензе очистили от рекламы наркотиков несколько зданий и сооружений
Очередная «антинаркотическая зачистка» прошла в областном центре.
Жительница Мокшана Пензенской области воспользовалась «ювелиркой» приютившей ее подруги
Возбуждено уголовное дело о краже.
Скоро обустроят участки дороги близ социально значимых объектов.
Прокурор Пензенской области принял обращения от жителей Иссинского района
В муниципальном образовании прошла встреча с гражданами.
В Пензе соревнования по легкой атлетике посвятили памяти Евгения Прыткова
Участниками состязаний стали более 1300 человек.
Пензенцы пожаловались в соцсети на подтопление участка улицы Антонова
Минлесхоз Пензенской области не установил фактов загрязнения Ласточкиного озера
Чтобы очистить водоем, нужно вступить в специальную федеральную программу.
Пензенцам рассказали, какая участь постигнет дипломы бакалавров
В Пензе очистили от рекламы наркотиков несколько зданий и сооружений
Очередная «антинаркотическая зачистка» прошла в областном центре.
Пензенцы пожаловались в соцсети на подтопление участка улицы Антонова
Растаявший снег осложнил жизнь водителям и пешеходам.
Минлесхоз Пензенской области не установил фактов загрязнения Ласточкиного озера
Чтобы очистить водоем, нужно вступить в специальную федеральную программу.
Пензенцам рассказали, какая участь постигнет дипломы бакалавров
Владельцев таких дипломов не будут ущемлять в правах, поскольку они окончили вуз.
В Пензе очистили от рекламы наркотиков несколько зданий и сооружений
Новости СМИ2
Пензенцы пожаловались в соцсети на подтопление участка улицы Антонова
Минлесхоз Пензенской области не установил фактов загрязнения Ласточкиного озера
Пензенцам рассказали, какая участь постигнет дипломы бакалавров
В Пензе очистили от рекламы наркотиков несколько зданий и сооружений
Жительница Мокшана Пензенской области воспользовалась «ювелиркой» приютившей ее подруги
В Пензе 3 нерегулируемых пешеходных перехода сделают безопаснее
Прокурор Пензенской области принял обращения от жителей Иссинского района
В Пензе соревнования по легкой атлетике посвятили памяти Евгения Прыткова
В пензенском микрорайоне Кривозерье пожар повредил гараж
Семь медалей привезли пензенцы с Всероссийского турнира по всестилевому карате
Водоснабжение в селе Ключи Пензенской области появится в середине марта
1 марта в Заречном Пензенской области проверят систему оповещения
© 2017-2023, Рекламно-информационное агентство «ПензаСМИ».
Учредитель: Общество с ограниченной ответственностью
«Оптимист».
Адрес редакции: 440028, г. Пенза, ул. Германа Титова, д. 9.
Телефон: 8 (8412) 20-07-60
E-mail: [email protected]
Свидетельство о регистрации ЭЛ № ФС 77 — 72693 от 23.04.2018г. выдано Федеральной службой по надзору в сфере связи, информационных технологий и массовых коммуникаций
Все права защищены. Использование материалов, опубликованных на сайте penzasmi.ru допускается с обязательной прямой гиперссылкой на страницу, с которой заимствован материал. Гиперссылка должна размещаться непосредственно в тексте.
Настоящий ресурс может содержать материалы 18+.
Политика конфиденциальности
Свяжитесь с нами | О ВАС Справочный центр
Свяжитесь с нами | О ВАС Справочный центр Skip to main content Contact & HelpSecond-HandWomenMenKids
ABOUTYOU
Login
Wishlist
Basket
Drops
Clothing
Shoes
Sportswear
Accessories
Премиум
Продажа
TOP 100
Second Love
Дома
Смотреть сейчас
Откройте для себя все живые распродажиЭксклюзивные предложения
Casa Mara x О ВАС
Яркие цвета
Купить сейчас
Discover all exclusive dropsSneaker release calendar
MR530PUT
New Balance
Get your pair
Discover all sneaker releasesSHOP BY CATEGORIES
Explore allJacketsSweaters & knitwearJeansDressesCoatsPantsTopsBlouses & tunicsSweaters & hoodiesSkirtsBlazersUnderwearSwimwearJumpsuits & playsuits
SHOP BY FIT
Maternity одеждаПлюс размерыPetiteTall
Highlights
NewTrendingЭкологичностьЭксклюзивПремиумСлучаи Upcycling
Top Brands
ONLY
ABOUT YOU
VERO MODA
EDITED
SHOP BY CATEGORIES
Explore allAnkle bootsBootsSneakersSports shoesLow shoesHigh heelsSlip-onsBallet flatsSandalsPoolside shoesSlippersShoe accessories
Highlights
NewTrendingSustainabilityExclusive
Top Brands
ADIDAS ORIGINALS
TAMARIS
О ВАС
Спортивная одежда Nike
Dr. Martens
Converse
New Balance
PUMA
Shop By Categories
Explore Allsports Bags & Backpacksssports Accessoriessports Equipment
Spartsports Allsports. обувьСпортивная обувьОбувь у бассейнаТеннисная обувьДомашняя обувьОбувь для скалолазания
Top Brands
Nike
Adidas Performance
Adidas Sportswear
Under Armour
Sports
Ski
Fitness
Spreed
. НакидкиСолнцезащитные очкиРемниКошелькиЧасыОчкиЧехлы для смартфоновАксессуары для волосБрелки и чехлыПерчаткиЗонтыТканевые маски
Основные моменты
NewSustainabilityUpcyclingExclusive
Top Brands
ABOUT YOU
GUESS
TOMMY HILFIGER
Kapten & Son
Johnny Urban
Liebeskind Berlin
TAMARIS
Calvin Klein
SHOP BY CATEGORIES
Explore allNewJackets & coatsKnitwearJeansDressesPantsTopsBlouses & ТуникиСвитера и толстовкиЮбкиНижнее белье и купальникиКомбинезоны и комбинезоныОбувьАксессуары
Top Brands
Lauren Ralph Lauren
HUGO
Calvin Klein
ABOUT YOU x Marie von Behrens
SHOP BY CATEGORIES
Explore allJacketsSweaters & knitwearJeansDressesCoatsPantsTopsBlouses & tunicsSweaters & hoodiesSkirtsBlazersPlus sizesMaternity wearUnderwearSwimwearJumpsuits & playsuitsOccasionsShoesAccessoriesPremiumSportswear
SHOP BY CATEGORIES
Explore всеНовыеОтобранные Levi’s®ОдеждаОбувьАксессуарыРАСПРОДАЖАПереработка
Top Brands
Louis Vuitton
Marc O’Polo
Marc Cain
BOSS Black
ESPRIT
LEVI’S
TOMMY HILFIGER
SHOP BY CATEGORIES
Explore allDecoration & storageLampsCooking & eatingTextilesFurnitureOccasionsExclusive
Top Brands
Depot
О ВАС
Wenko
ESSENZA
МОЙ ДОМ
TOM TAILOR
Bella Maison
cinas
Top Brands
ONLY
VERO MODA
ADIDAS ORIGINALS
VILA
MANGO
Nike Sportswear
LEVI’S
PIECES
Discover all brandsTrending Brands
KOROSHI
CHIEMSEE
BDG Urban Outfitters
PEAK PERFORMANCE
Хлопок на теле
Happy Socks
DreiMaster Vintage
APART
Эксклюзивные бренды
Leger от Lena Gercke
Guido Maria Kretchmer Collection
Отредактировано
О вас
Меньше
Guido Maria Kretschmer Collection
Stories
Florence By Mills Excluess для вас примерно
Stories
. Бюстгальтеры
Оптимальная поддержка
Обувь для активного отдыха
Легкая походка
Красивое тело
Универсальный цельный купальник
Уютная одежда для сна
Для беременных
Вторая любовь
Любимые вещи с изюминкой
Образы для прохладной погоды
Для беременных
Платья для прохладной погоды
Для беременных
Свадебные образы для гостьи
Узнать все историиВдохновляющие образы
Comfy White Look
Millie Bobby Brown
Comfy Look от Nike
Aminata
Look от WE Fashion
Charlie Weiss
Откройте для себя все нарядыКупите сейчас, заплатите позжеБесплатная доставка* и возврат товара в течение 100 днейПросмотрите разделы справки
Назад к справкеПомощь
Не нашли ответ, который искали, в нашем разделе помощи? Или вы хотите связаться с нами по другой причине? Напишите нам, и мы свяжемся с вами.
Адрес электронной почты
У вас есть вопрос по заказу?ДаНет
Опишите ваш запрос здесь
Прикрепить файл
Максимум 3 файла JPG, PNG или PDF размером до 3 МБ каждый.
Служба поддержки клиентов
Не нашли ответ на свой вопрос?
Найдите ответ всего за несколько кликов или свяжитесь с нами для получения дополнительной поддержки.
Получить помощь
Посетите наш Центр самообслуживания, чтобы получить быстрые ответы на наиболее часто задаваемые вопросы или написать нам
Запросить поддержку
Позвонить нам
0800 / 58 95 122****
Бесплатная горячая линия: Пн — Пт 9утра-18:00, сб 9:00-18:00
Чего ожидать, когда вы свяжетесь с нами
Каждое обращение на горячую линию является личным. Некоторые люди, которые обращаются к нам, идентифицируют себя как жертвы жестокого обращения, некоторые как обеспокоенные друзья или члены семьи, некоторые как жестокие партнеры, стремящиеся изменить себя. Многие люди могут не знать, чего ожидать, связавшись с нами. Хотя каждый контакт уникален, наши представители руководствуются Политикой согласия и этики горячей линии и будут подчеркивать несколько ключевых моментов в ходе вашего разговора.
Уход
- «Спасибо за обращение.»
Беспокойство по поводу обращения на горячую линию вполне естественно, особенно если вы впервые обращаетесь за помощью. Наши адвокаты проходят обширную подготовку по оказанию помощи жертвам домашнего насилия, и наши услуги всегда конфиденциальны. Обращение за помощью — это первый шаг к улучшению вашей ситуации, и важно признать свою смелость, сделав этот жизненно важный шаг.
- «Ты в безопасном месте, чтобы поговорить?»
Для вашей собственной безопасности важно, чтобы вы связались с нами, когда вашего партнера нет рядом. Это может быть трудно сделать, если вы живете в одном доме, но жестокие партнеры, скорее всего, отреагируют гневом, когда вы предпримете шаги, чтобы восстановить контроль над своей жизнью. Если ваш партнер приходит домой или заходит в комнату, пока вы разговариваете с адвокатом, немедленно прервите разговор. Не забудьте защитить свою цифровую конфиденциальность и примите меры, чтобы удалить наш номер со своего телефона или очистить историю просмотров в Интернете после посещения TheHotline.org
- «Как вы заботитесь о себе?»
Забота о себе всегда важна, но об этом легко забыть, когда вы находитесь в отношениях, где вас оскорбляют. Позаботиться о себе может быть так же просто, как хорошо позавтракать или выспаться ночью — важно делать это каждый день. Многие защитники рекомендуют писать в дневнике, читать хорошую книгу или долго принимать ванну, чтобы успокоиться.
Поддержка
- «Почему ты не рассказываешь мне о своей ситуации?»
Прежде чем адвокат сможет помочь, он должен знать ваши конкретные обстоятельства. Об этом, вероятно, будет трудно говорить, но это даст вам возможность выразить себя и высказать опасения по поводу ваших отношений. Некоторые защитники рекомендуют резюмировать вашу ситуацию через хронологию ваших отношений или объяснить недавнюю ссору, чтобы лучше понять, какие варианты доступны для вас.
- «Что вы уже обдумали?»
Вы лучше знаете свою ситуацию. Люди обращаются к нам на разных этапах своих отношений, поэтому нам нужно понять, какие шаги вы готовы предпринять, чтобы предоставить вам информированную поддержку. Наши адвокаты никогда не будут принимать решения за вас — только вы имеете на это право, — поэтому обсуждение ваших вариантов может быть просто полезным способом помочь вам принять собственные лучшие решения.
- «Проведем мозговой штурм вместе».
Если вы пытаетесь улучшить общение со своим партнером, планируете, как разорвать отношения, или ищете способы чувствовать себя в большей безопасности дома, у вас всегда есть варианты. Наши защитники могут помочь вам разобраться с вашим выбором, чтобы выяснить, что лучше всего подходит для вашей конкретной ситуации.
- «Что еще у тебя на уме?»
Наши защитники здесь, чтобы помочь вам разобраться в вашей ситуации, и у вас, вероятно, возникнут дополнительные вопросы во время разговора (а также некоторые вещи, которые вы, возможно, не хотели задавать в начале). Помните, что наши услуги всегда конфиденциальны и что наши адвокаты доступны 24 часа в сутки, 7 дней в неделю, чтобы помочь любым способом, который вы считаете лучшим.
Ознакомьтесь с нашей политикой конфиденциальности
Могу ли я позвонить без осуждения?
Наши адвокаты здесь, чтобы выслушать без суждений и помочь вам начать решать, что происходит в ваших отношениях. Наши услуги всегда бесплатны и доступны 24/7.
Звоните: 800.799.SAFE (7233)
Чат: Прямой чатКонечно. С нами часто связываются люди, которые идентифицируют себя как оскорбительные или обеспокоены поведением, которое может быть нездоровым. Мы относимся ко всем, кто связывается с нами с достоинством и уважением, и поддерживаем ответственность, которая признает эти моменты как возможность посеять семена перемен.
Что порекомендует адвокат?
- В зависимости от вашей ситуации наши адвокаты предложат вам различные варианты действий. Если вы начнете выявлять нездоровое поведение в ваших отношениях во время разговора, они обсудят с вами эти тревожные флажки и придумают здоровые альтернативы такому поведению.
- Наши защитники могут предложить стратегии, которые помогут вам успокоиться и разрядить ситуацию, если вы чувствуете, что начинаете злиться. Они также помогут вам понять, как ваши действия негативно влияют на вас и окружающих. Адвокаты
- могут помочь вам узнать больше о программах вмешательства и предотвращения избиения. Некоторые люди, которые обращаются к нам по поводу BIPPS, ищут направление по решению суда; другие ищут эту информацию самостоятельно. Наши адвокаты могут помочь вам найти местные службы и порекомендовать ресурсы, подходящие для вашей ситуации.
Поддержка на выбранном вами языке
Мы хотим максимально упростить разговор о насилии в отношениях для всех, независимо от их основного языка. Вот почему мы сотрудничаем с Macy’s, чтобы предоставить всем контактам, которым это необходимо, доступ к нашей языковой линии. Благодаря нашей языковой линии звонящие могут разговаривать с нашими адвокатами на более чем 140 языках с помощью обученного переводчика.