05.11.2018 15:18 Uhr, Quelle: Heise
Natural Language Processing: Google veröffentlicht Modell für Pre-Training
Mit den quelloffenen "Bidirectional Encoder Representations from Transformers" (BERT) soll das Training neuer Modelle einfacher und schneller laufen.
Weiterlesen bei Heise
JustMac.info