Natural Language Processing mit Transformern

Sprachanwendungen mit Hugging Face erstellen
Sofort lieferbar | Lieferzeit: Sofort lieferbar I
Alle Preise inkl. MwSt. | Versandkostenfrei
ISBN-13:
9783960092025
Veröffentl:
2023
Erscheinungsdatum:
02.02.2023
Seiten:
430
Autor:
Lewis Tunstall
Gewicht:
788 g
Format:
240x170x26 mm
Serie:
Animals
Sprache:
Deutsch
Beschreibung:

Lewis Tunstall ist Machine Learning Engineer bei Hugging Face. Der Schwerpunkt seiner Arbeit liegt derzeit auf der Entwicklung von Tools für die NLP-Community und darauf, Menschen zu schulen, diese effektiv zu nutzen.Leandro von Werra ist Machine Learning Engineer im Open-Source-Team von Hugging Face. Er konzentriert sich hauptsächlich auf Modelle, die Code generieren können, und auf die Zusammenarbeit mit der Community.Thomas Wolf ist Chief Science Officer und Mitgründer von Hugging Face. Sein Team hat sich der Aufgabe verschrieben, die KI-Forschung voranzutreiben und sie weiter zu demokratisieren.
  • Transformer haben die NLP-Welt im Sturm erobert: Erhalten Sie einen fundierten und praxisnahen Überblick über die wichtigsten Methoden und Anwendungen im aktuellen NLP
  • Das Buch wurde von den Gründern von Hugging Face, der Plattform für vortrainierte Transformer-Modelle für TensorFlow und PyTorch, verfasst
  • Hands-On: Jeder Programmierschritt kann in Jupyter Notebooks nachvollzogen werden

Transformer liefern hervorragende Ergebnisse bei der maschinellen Sprachverarbeitung und haben sich in den letzten Jahren zur vorherrschenden Architektur im Natural Language Processing (NLP) entwickelt. Dieses Praxisbuch zeigt Data Scientists und Programmierer*innen, wie sie NLP-Modelle mit Hugging Face Transformers, einer Python-basierten Deep-Learning-Bibliothek, trainieren und skalieren. Transformer kommen beispielsweise beim maschinellen Schreiben von Nachrichtenartikeln, bei der Verbesserung von Google-Suchanfragen oder bei Chatbots zum Einsatz.

Lewis Tunstall, Leandro von Werra und Thomas Wolf, die die Transformers-Bibliothek von Hugging Face mitentwickelt haben, erklären in diesem Buch, wie Transformer-basierte Modelle funktionieren und wie Sie sie in Ihre Anwendungen integrieren. Sie erfahren, wie Transformer für eine Vielzahl von Aufgaben erfolgreich eingesetzt werden können.

  • Erstellen, debuggen und optimieren Sie Transformer-Modelle für zentrale NLP-Aufgaben wie Textklassifizierung, Named Entity Recognition oder Question Answering
  • Lernen Sie, wie Transformer für sprachenübergreifendes Transfer Learning verwendet werden
  • Wenden Sie Transformer auf reale Anwendungsfälle an, bei denen nur auf wenige gelabelte Daten zurückgegriffen werden kann
  • Optimieren Sie Transformer-Modelle für das Deployment mit Techniken wie Distillation, Pruning und Quantisierung
  • Trainieren Sie Transformer von Grund auf und lernen Sie, wie sie auf mehreren GPUs und verteilten Umgebungen skalieren

Kunden Rezensionen

Zu diesem Artikel ist noch keine Rezension vorhanden.
Helfen sie anderen Besuchern und verfassen Sie selbst eine Rezension.