05.11.2018 15:18 Uhr, Quelle: Heise

Natural Language Processing: Google veröffentlicht Modell für Pre-Training

Mit den quelloffenen "Bidirectional Encoder Representations from Transformers" (BERT) soll das Training neuer Modelle einfacher und schneller laufen.

Weiterlesen bei Heise

Digg del.icio.us Facebook email MySpace Technorati Twitter

JustMac.info © Thomas Lohner - Impressum - Datenschutz