БЕРТ

БЕРТ гэта абрэвіятура для Прадстаўленні двухнакіраванага кадавальніка ад Transformers

Папярэдне падрыхтаваная мадэль глыбокага навучання, распрацаваная даследчыкамі Google AI для задач разумення натуральнай мовы. BERT заснаваны на архітэктуры Transformer, якая была прадстаўлена Васвані і інш. у 2017 годзе, і гэта значна прасунула сучасны стан у апрацоўцы розных натуральных моў (NLP) заданні.

Ключавым новаўвядзеннем у BERT з'яўляецца яго двухнакіраваны падыход да навучання, які дазваляе мадэлі вывучаць кантэкст слова з левага і правага бакоў адначасова. Гэта двухнакіраванае кантэкстнае навучанне дазваляе BERT атрымаць больш поўнае разуменне мовы і прыводзіць да павышэння прадукцыйнасці пры выкананні шырокага спектру задач НЛП, такіх як аналіз пачуццяў, адказы на пытанні і распазнаванне названых сутнасцей.

BERT папярэдне навучаецца на вялікім корпусе тэксту, вучыцца ствараць кантэкстныя ўяўленні слоў і фраз. Пасля папярэдняга навучання BERT можна наладзіць для канкрэтных задач NLP з меншым наборам дадзеных з маркіроўкай, што робіць яго універсальным і магутным інструментам для розных прыкладанняў разумення мовы. Поспех BERT падштурхнуў да распрацоўкі многіх іншых мадэляў на базе Transformer, такіх як GPT, RoBERTa і T5, якія працягваюць развіваць сферу НЛП.

Артыкулы з тэгам BERT

Паглядзець дадатковыя артыкулы з тэгам BERT

Вярнуцца да пачатку кнопкі
блізка

Выяўлена блакіроўка рэкламы

Мы залежым ад рэкламы і спонсарства, каб падтрымліваць Martech Zone бясплатна. Калі ласка, адключыце блакіроўшчык рэкламы або падтрымайце нас, аформіўшы даступнае гадавое сяброўства без рэкламы (10 долараў ЗША):

Зарэгіструйцеся для атрымання штогадовага сяброўства