You signed in with another tab or window. Reload to refresh your session.You signed out in another tab or window. Reload to refresh your session.You switched accounts on another tab or window. Reload to refresh your session.Dismiss alert
Copy file name to clipboardExpand all lines: docs/4gen_ai/genai_infrastructure.rst
+42-25Lines changed: 42 additions & 25 deletions
Display the source diff
Display the rich diff
Original file line number
Diff line number
Diff line change
@@ -23,33 +23,50 @@ Software-Frameworks
23
23
Die Software-Frameworks sind essenziell, um die Hardware optimal zu nutzen und komplexe KI-Modelle effizient zu implementieren und zu trainieren.
24
24
Zwei der wichtigsten Frameworks in diesem Kontext sind:
25
25
26
-
- **TensorFlow:**
27
-
Ein von Google entwickeltes Framework, das umfangreiche Tools und Bibliotheken für das maschinelle Lernen bereitstellt.
28
-
TensorFlow unterstützt sowohl das Training als auch das Deployment von Modellen in unterschiedlichen Umgebungen und bietet eine starke Integration in Cloud-Dienste.
29
-
30
-
- **PyTorch:**
31
-
Ein Framework von Facebook, das sich durch seine dynamische Berechnungsgrafik und intuitive Bedienung auszeichnet.
32
-
PyTorch wird vor allem in der Forschung bevorzugt, da es flexible Modellierung und eine einfache Fehlersuche ermöglicht.
33
-
34
-
Darüber hinaus gibt es spezialisierte Bibliotheken wie **Huggingface Transformers**, die den Umgang mit vortrainierten Transformer-Modellen erheblich vereinfachen.
35
-
Diese Bibliothek bietet eine Vielzahl von vortrainierten Modellen und Tools, die den Prozess des Fine-Tunings und der Anpassung an spezifische Aufgaben vereinfachen.
36
-
Sie ermöglicht es, komplexe Modelle schnell und effizient in eigene Projekte zu integrieren.
26
+
TensorFlow
27
+
Ein von Google entwickeltes Framework, das umfangreiche Tools und
28
+
Bibliotheken für das maschinelle Lernen bereitstellt. TensorFlow
29
+
unterstützt sowohl das Training als auch das Deployment von Modellen in
30
+
unterschiedlichen Umgebungen und bietet eine starke Integration in
31
+
Cloud-Dienste.
32
+
PyTorch
33
+
Ein Framework von Facebook, das sich durch seine dynamische
34
+
Berechnungsgrafik und intuitive Bedienung auszeichnet. PyTorch wird vor
35
+
allem in der Forschung bevorzugt, da es flexible Modellierung und eine
36
+
einfache Fehlersuche ermöglicht.
37
+
38
+
Darüber hinaus gibt es spezialisierte Bibliotheken wie **Huggingface
39
+
Transformers**, die den Umgang mit vortrainierten Transformer-Modellen erheblich
40
+
vereinfachen. Diese Bibliothek bietet eine Vielzahl von vortrainierten Modellen
41
+
und Tools, die den Prozess des Fine-Tunings und der Anpassung an spezifische
42
+
Aufgaben vereinfachen. Sie ermöglicht es, komplexe Modelle schnell und effizient
43
+
in eigene Projekte zu integrieren.
37
44
38
45
Architekturüberblick
39
-
--------------------------
46
+
--------------------
40
47
41
48
Der Architekturüberblick befasst sich mit dem ganzheitlichen Aufbau von KI-Systemen, insbesondere von Large Language Models (LLMs). Wichtige Bestandteile dieser Architektur sind:
42
49
43
-
- **Modellaufbau und Feintuning:**
44
-
Häufig wird ein vortrainiertes Modell als Ausgangspunkt verwendet, das dann mittels Feintuning an spezifische Anwendungsfälle angepasst wird.
45
-
Dieser Ansatz reduziert den Trainingsaufwand erheblich und ermöglicht es, umfangreiche, generische Modelle für spezifische Domänen zu verfeinern.
46
-
47
-
- **Datenpipelines:**
48
-
Eine robuste Datenpipeline ist entscheidend für die Vorbereitung und Aufbereitung großer Datenmengen.
49
-
Sie umfasst Schritte wie das Sammeln, Bereinigen und Transformieren der Rohdaten, sodass diese in einem für das Training geeigneten Format vorliegen.
50
-
Datenaugmentation und Vorverarbeitungstechniken tragen zusätzlich dazu bei, die Vielfalt und Qualität der Trainingsdaten zu verbessern.
51
-
52
-
- **Skalierungstechniken:** Angesichts der oft enormen Daten- und Modellgrößen werden Techniken wie verteiltes Training, Modellparallelismus und Pipeline-Parallelismus eingesetzt.
53
-
Diese Methoden ermöglichen es, das Training auf mehreren GPUs oder TPUs gleichzeitig durchzuführen, wodurch die Trainingszeiten erheblich verkürzt und die Effizienz gesteigert wird.
54
-
55
-
Das Zusammenspiel von leistungsfähiger Hardware, robusten Software-Frameworks und einer durchdachten Architektur bildet die Grundlage, um skalierbare und leistungsfähige KI-Systeme zu entwickeln und erfolgreich in produktive Umgebungen zu überführen.
50
+
Modellaufbau und Feintuning
51
+
Häufig wird ein vortrainiertes Modell als Ausgangspunkt verwendet, das dann
52
+
mittels Feintuning an spezifische Anwendungsfälle angepasst wird. Dieser
53
+
Ansatz reduziert den Trainingsaufwand erheblich und ermöglicht es,
54
+
umfangreiche, generische Modelle für spezifische Domänen zu verfeinern.
55
+
Datenpipelines
56
+
Eine robuste Datenpipeline ist entscheidend für die Vorbereitung und
57
+
Aufbereitung großer Datenmengen. Sie umfasst Schritte wie das Sammeln,
58
+
Bereinigen und Transformieren der Rohdaten, sodass diese in einem für das
59
+
Training geeigneten Format vorliegen. Datenaugmentation und
60
+
Vorverarbeitungstechniken tragen zusätzlich dazu bei, die Vielfalt und
61
+
Qualität der Trainingsdaten zu verbessern.
62
+
Skalierungstechniken
63
+
Angesichts der oft enormen Daten- und Modellgrößen werden Techniken wie
64
+
verteiltes Training, Modellparallelismus und Pipeline-Parallelismus
65
+
eingesetzt. Diese Methoden ermöglichen es, das Training auf mehreren GPUs
66
+
oder TPUs gleichzeitig durchzuführen, wodurch die Trainingszeiten erheblich
67
+
verkürzt und die Effizienz gesteigert wird.
68
+
69
+
Das Zusammenspiel von leistungsfähiger Hardware, robusten Software-Frameworks
70
+
und einer durchdachten Architektur bildet die Grundlage, um skalierbare und
71
+
leistungsfähige KI-Systeme zu entwickeln und erfolgreich in produktive
Copy file name to clipboardExpand all lines: docs/4gen_ai/genai_intro.rst
+38-22Lines changed: 38 additions & 22 deletions
Display the source diff
Display the rich diff
Original file line number
Diff line number
Diff line change
@@ -16,29 +16,45 @@ Anwendungsbeispiele
16
16
17
17
Generative KI findet in zahlreichen Anwendungsbereichen Einsatz, was ihre enorme Vielseitigkeit unterstreicht. Beispiele hierfür sind:
18
18
19
-
- **Textgenerierung:** Automatisches Verfassen von Artikeln, Zusammenfassungen oder kreativen Geschichten.
20
-
Chatbots und virtuelle Assistenten nutzen generative Modelle, um menschenähnliche Konversationen zu führen.
21
-
22
-
- **Bildgenerierung:** Erzeugung von realistischen oder künstlerischen Bildern, die beispielsweise in der Werbung, im Design oder in der Kunst Anwendung finden.
23
-
Tools wie DALL-E oder Stable Diffusion illustrieren diesen Einsatz.
24
-
25
-
- **Musik- und Soundkomposition:** Erstellung neuer Musikstücke oder Klanglandschaften, die sowohl in der Unterhaltungsindustrie als auch in der Filmproduktion genutzt werden.
26
-
27
-
- **Weitere kreative Anwendungen:** Dazu zählen die Generierung von Videos, Code-Snippets oder auch die Simulation komplexer Szenarien in wissenschaftlichen Modellen.
28
-
29
-
Diese Beispiele zeigen, dass generative Modelle weit über die rein analytische Datenverarbeitung hinausgehen und kreativitätsfördernde Prozesse unterstützen können.
19
+
Textgenerierung
20
+
Automatisches Verfassen von Artikeln, Zusammenfassungen oder kreativen
21
+
Geschichten. Chatbots und virtuelle Assistenten nutzen generative Modelle,
22
+
um menschenähnliche Konversationen zu führen.
23
+
Bildgenerierung
24
+
Erzeugung von realistischen oder künstlerischen Bildern, die beispielsweise
25
+
in der Werbung, im Design oder in der Kunst Anwendung finden. Tools wie
26
+
DALL-E oder Stable Diffusion illustrieren diesen Einsatz.
27
+
Musik- und Soundkomposition
28
+
Erstellung neuer Musikstücke oder Klanglandschaften, die sowohl in der
29
+
Unterhaltungsindustrie als auch in der Filmproduktion genutzt werden.
30
+
Weitere kreative Anwendungen
31
+
Dazu zählen die Generierung von Videos, Code-Snippets oder auch die
32
+
Simulation komplexer Szenarien in wissenschaftlichen Modellen.
33
+
34
+
Diese Beispiele zeigen, dass generative Modelle weit über die rein analytische
35
+
Datenverarbeitung hinausgehen und kreativitätsfördernde Prozesse unterstützen
36
+
können.
30
37
31
38
Unterschiede zu diskriminativen Ansätzen
32
-
---------------------------------------------
39
+
----------------------------------------
33
40
34
-
Der Hauptunterschied zwischen generativen und diskriminativen Ansätzen liegt in ihrer Zielsetzung und Methodik:
41
+
Der Hauptunterschied zwischen generativen und diskriminativen Ansätzen liegt in
42
+
ihrer Zielsetzung und Methodik:
35
43
36
-
- **Generative Modelle** lernen die vollständige Wahrscheinlichkeitsverteilung der Eingabedaten.
37
-
Sie können dadurch nicht nur Muster erkennen, sondern auch neue Datenpunkte generieren, die in das erlernte Schema passen.
38
-
Dies ermöglicht kreative Anwendungen, bei denen neue Inhalte aus dem Gelernten abgeleitet werden.
39
-
40
-
- **Diskriminative Modelle** hingegen konzentrieren sich darauf, zwischen vorgegebenen Klassen oder Kategorien zu unterscheiden.
41
-
Sie sind darauf trainiert, direkt aus den Eingabedaten Entscheidungen zu treffen, beispielsweise ob ein Bild eine Katze oder einen Hund zeigt.
42
-
Dabei steht die Klassifikation im Vordergrund, ohne dass ein tiefergehendes Verständnis der zugrunde liegenden Datenverteilung erforderlich ist.
43
-
44
-
Während also diskriminative Ansätze primär in der Erkennung und Kategorisierung von Mustern eingesetzt werden, ermöglichen generative Modelle die Erzeugung von neuen, bisher nicht existierenden Inhalten – was sie zu einem zentralen Baustein moderner kreativer und innovativer KI-Anwendungen macht.
44
+
Generative Modelle
45
+
lernen die vollständige Wahrscheinlichkeitsverteilung der Eingabedaten. Sie
46
+
können dadurch nicht nur Muster erkennen, sondern auch neue Datenpunkte
47
+
generieren, die in das erlernte Schema passen. Dies ermöglicht kreative
48
+
Anwendungen, bei denen neue Inhalte aus dem Gelernten abgeleitet werden.
49
+
Diskriminative Modelle
50
+
hingegen konzentrieren sich darauf, zwischen vorgegebenen Klassen oder
51
+
Kategorien zu unterscheiden. Sie sind darauf trainiert, direkt aus den
52
+
Eingabedaten Entscheidungen zu treffen, beispielsweise ob ein Bild eine
53
+
Katze oder einen Hund zeigt. Dabei steht die Klassifikation im Vordergrund,
54
+
ohne dass ein tiefergehendes Verständnis der zugrunde liegenden
55
+
Datenverteilung erforderlich ist.
56
+
57
+
Während also diskriminative Ansätze primär in der Erkennung und Kategorisierung
58
+
von Mustern eingesetzt werden, ermöglichen generative Modelle die Erzeugung von
59
+
neuen, bisher nicht existierenden Inhalten – was sie zu einem zentralen
60
+
Baustein moderner kreativer und innovativer KI-Anwendungen macht.
0 commit comments