Упорядочивание гипотез в моделях перевода с использованием человеческой разметки
- Авторы: Воронцов К.В.1, Скачков Н.А.1
-
Учреждения:
- ВЦ ФИЦ ИУ РАН
- Выпуск: № 4 (2024)
- Страницы: 121-128
- Раздел: ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ
- URL: https://kazanmedjournal.ru/0002-3388/article/view/676401
- DOI: https://doi.org/10.31857/S0002338824040074
- EDN: https://elibrary.ru/UEFMST
- ID: 676401
Цитировать
Аннотация
Современные системы машинного перевода обучаются на больших объемах параллельных данных, полученных с помощью эвристических методов обхода интернета. Низкое качество этих данных приводит к систематическим ошибкам перевода, которые могут быть достаточно заметными для человека. Для борьбы с такими ошибками предлагается интегрирование человеческих оценок гипотез переводной модели в процесс обучения системы перевода. Показано, что использование человеческих разметок позволяет не только вырастить общее качество перевода, но и заметно снизить количество систематических ошибок перевода. Кроме того, относительная простота человеческой разметки и ее применения для улучшения качества модели открывает новые возможности в области доменной адаптации моделей перевода под новые домены, что удалось показать на примере переводов заголовков товаров из интернет-магазинов.
Полный текст

Об авторах
К. В. Воронцов
ВЦ ФИЦ ИУ РАН
Автор, ответственный за переписку.
Email: vokov@forecsys.ru
Россия, Москва
Н. А. Скачков
ВЦ ФИЦ ИУ РАН
Email: nikolaj-skachkov@ya.ru
Россия, Москва
Список литературы
- Bañón M., Chen P., Haddow B. et. al. ParaCrawl: Web-Scale Acquisition of Parallel Corpora // Proc. 58th Annual Meeting of the Association for Computational Linguistics. Seattle, 2020. P. 4555–4567.
- Stahlberg F. Neural Machine Translation: A Review // J. Artific. Intelligence Res. 2020. № 69. P. 343–418.
- Vaswani A., Shazeer N., Parmar N. et. al. Attention is All You Need // Proc. 31st Intern. Conf. on Neural Information Processing Systems (NIPS’17). Curran Associates Inc., Red Hook. N.Y., 2017. P. 6000–6010.
- Yang Z., Cheng Y., Liu Y. et. al. Reducing Word Omission Errors in Neural Machine Translation: A Contrastive Learning Approach // Proc. 57th Annual Meeting of the Association for Computational Linguistics. Florence, 2019. P. 6191–6196.
- Vijayakumar A.K., Cogswell M., Selvaraju R.R. et. al. Diverse Beam Search: Decoding Diverse Solutions from Neural Sequence Models // ArXiv. 2016. abs/1610.02424.
- Papineni K., Roukos S., Ward T. et. al. Bleu: a Method for Automatic Evaluation of Machine Translation // Proc. 40th Annual Meeting of the Association for Computational Linguistics. Philadelphia, 2002. P. 311–318.
- Barrault L., Bojar O.R., Costa-jussà M. et al. Findings of the Conf. on Machine Translation (WMT19) // Proc. Fourth Conf. on Machine Translation. Florence, 2019. V. 2: Shared Task Papers.
- Kingma D.P., Ba J. Adam: A Method for Stochastic Optimization // 3rd Intern. Conf. on Learning Representations (ICLR). San Diego, CA, 2015.
Дополнительные файлы
