Haftungsausschluss: Ich sammle hier absolut subjektiv Nachrichten.
Ein Teil der Nachrichten sind Nachrichten nur für mich und könnten für eine lange Zeit erschienen sein. Ich habe sie gerade bemerkt.
Ich begleite die Nachrichten mit meinem Kommentar, in dem ich den Grund darstelle, warum diese Nachrichten für mich interessant sind.
Es sieht so aus, als würden Transformers von Hugginface jetzt zum Haupt-Repository für vorgefertigte Modelle im Abschnitt NLP ( Natural Language Processing ).
…….. Google . Google, TensorFlow Hub, , . Google . NLP, Microsoft Facebook, . . . , PyTorch, TensorFlow. , , . .
sktime - time series. time series forecasting , . Facebook Prophet Amazon DeepAR . , sktime, PyTorch Forecasting, Amazon GluonTS. sktime , open source .
Google hat mit dem SMITH- Modell einen interessanten Anspruch erhoben . Der bisherige Marktführer in NLP ist BERT. Mit SMITH können Sie laut den Autoren viermal länger mit Text arbeiten als mit BERT (2K-Token gegenüber 0,5K). Die Autoren haben dem Design und dem Training des Modells einige Tricks hinzugefügt. Diese Änderungen scheinen keinen grundsätzlichen Unterschied zu machen. Ähnliche Tricks sind bei anderen Forschern in großer Zahl zu sehen. Google verfügt über unbegrenzte Ressourcen und kann viele ähnliche Modelle auf dem neuesten Stand der Technik trainieren.