večglava pozornost
DEFINICIJA:
mehanizem pozornosti, ki uporablja več vzporednih modulov za učenje različnih medsebojnih vplivov časovno ali prostorsko bolj oddaljenih vhodnih podatkov


ANGLEŠČINA
TERMIN:
multi-head attention



Vir: Terminološki slovar s področja umetne inteligence - Skupina avtorjev

Komentiraj slovarski sestavek