Skip to content

Commit 45882c0

Browse files
committed
pencil2: Fix rest syntax
1 parent 501c8c6 commit 45882c0

File tree

4 files changed

+212
-143
lines changed

4 files changed

+212
-143
lines changed

docs/4gen_ai/abschluss.rst

Lines changed: 23 additions & 24 deletions
Original file line numberDiff line numberDiff line change
@@ -1,31 +1,30 @@
11
Abschluss
2-
==================================
3-
4-
**Ethische Fragestellungen in der KI**
5-
6-
Mit der rasanten Entwicklung der KI gehen auch bedeutende ethische Fragen einher:
7-
8-
- **Bias und Diskriminierung:** KI-Modelle können bestehende Vorurteile aus Trainingsdaten übernehmen.
9-
10-
- **Arbeitsplatzverdrängung:** Automatisierung kann menschliche Arbeitsplätze gefährden.
11-
12-
- **Transparenz und Erklärbarkeit:** Viele KI-Modelle, insbesondere Deep Learning, sind schwer zu interpretieren.
13-
14-
- **Verantwortung und Haftung:** Wer ist verantwortlich, wenn eine KI fehlerhafte oder schädliche Entscheidungen trifft?
15-
16-
- **Datenschutz:** KI-Anwendungen erfordern oft große Datenmengen, was Datenschutzprobleme aufwirft.
17-
18-
19-
2+
=========
3+
4+
Ethische Fragestellungen in der KI
5+
----------------------------------
6+
7+
Mit der rasanten Entwicklung der KI gehen auch bedeutende ethische Fragen
8+
einher:
9+
10+
Bias und Diskriminierung
11+
KI-Modelle können bestehende Vorurteile aus Trainingsdaten übernehmen.
12+
Arbeitsplatzverdrängung
13+
Automatisierung kann menschliche Arbeitsplätze gefährden.
14+
Transparenz und Erklärbarkeit
15+
Viele KI-Modelle, insbesondere Deep Learning, sind schwer zu interpretieren.
16+
Verantwortung und Haftung
17+
Wer ist verantwortlich, wenn eine KI fehlerhafte oder schädliche
18+
Entscheidungen trifft?
19+
Datenschutz
20+
KI-Anwendungen erfordern oft große Datenmengen, was Datenschutzprobleme
21+
aufwirft.
2022

2123
Weitere Referenzen
22-
-------------------
23-
24-
??????????
25-
===========
24+
------------------
2625

27-
Die Cusy hat bereits ein Neural Network Tutorial aufbereitet als Teil einer Reihe von Tutorials zur Datenanalyse
28-
und -visualisierung:
26+
cusy hat bereits ein Neural Network Tutorial aufbereitet als Teil einer Reihe
27+
von Tutorials zur Datenanalyse und -visualisierung:
2928

3029
* `Python Basics <https://python-basics-tutorial.readthedocs.io/de/latest/>`_
3130
* `Jupyter-Tutorial <https://jupyter-tutorial.readthedocs.io/de/latest/>`_

docs/4gen_ai/genai_infrastructure.rst

Lines changed: 42 additions & 25 deletions
Original file line numberDiff line numberDiff line change
@@ -23,33 +23,50 @@ Software-Frameworks
2323
Die Software-Frameworks sind essenziell, um die Hardware optimal zu nutzen und komplexe KI-Modelle effizient zu implementieren und zu trainieren.
2424
Zwei der wichtigsten Frameworks in diesem Kontext sind:
2525

26-
- **TensorFlow:**
27-
Ein von Google entwickeltes Framework, das umfangreiche Tools und Bibliotheken für das maschinelle Lernen bereitstellt.
28-
TensorFlow unterstützt sowohl das Training als auch das Deployment von Modellen in unterschiedlichen Umgebungen und bietet eine starke Integration in Cloud-Dienste.
29-
30-
- **PyTorch:**
31-
Ein Framework von Facebook, das sich durch seine dynamische Berechnungsgrafik und intuitive Bedienung auszeichnet.
32-
PyTorch wird vor allem in der Forschung bevorzugt, da es flexible Modellierung und eine einfache Fehlersuche ermöglicht.
33-
34-
Darüber hinaus gibt es spezialisierte Bibliotheken wie **Huggingface Transformers**, die den Umgang mit vortrainierten Transformer-Modellen erheblich vereinfachen.
35-
Diese Bibliothek bietet eine Vielzahl von vortrainierten Modellen und Tools, die den Prozess des Fine-Tunings und der Anpassung an spezifische Aufgaben vereinfachen.
36-
Sie ermöglicht es, komplexe Modelle schnell und effizient in eigene Projekte zu integrieren.
26+
TensorFlow
27+
Ein von Google entwickeltes Framework, das umfangreiche Tools und
28+
Bibliotheken für das maschinelle Lernen bereitstellt. TensorFlow
29+
unterstützt sowohl das Training als auch das Deployment von Modellen in
30+
unterschiedlichen Umgebungen und bietet eine starke Integration in
31+
Cloud-Dienste.
32+
PyTorch
33+
Ein Framework von Facebook, das sich durch seine dynamische
34+
Berechnungsgrafik und intuitive Bedienung auszeichnet. PyTorch wird vor
35+
allem in der Forschung bevorzugt, da es flexible Modellierung und eine
36+
einfache Fehlersuche ermöglicht.
37+
38+
Darüber hinaus gibt es spezialisierte Bibliotheken wie **Huggingface
39+
Transformers**, die den Umgang mit vortrainierten Transformer-Modellen erheblich
40+
vereinfachen. Diese Bibliothek bietet eine Vielzahl von vortrainierten Modellen
41+
und Tools, die den Prozess des Fine-Tunings und der Anpassung an spezifische
42+
Aufgaben vereinfachen. Sie ermöglicht es, komplexe Modelle schnell und effizient
43+
in eigene Projekte zu integrieren.
3744

3845
Architekturüberblick
39-
--------------------------
46+
--------------------
4047

4148
Der Architekturüberblick befasst sich mit dem ganzheitlichen Aufbau von KI-Systemen, insbesondere von Large Language Models (LLMs). Wichtige Bestandteile dieser Architektur sind:
4249

43-
- **Modellaufbau und Feintuning:**
44-
Häufig wird ein vortrainiertes Modell als Ausgangspunkt verwendet, das dann mittels Feintuning an spezifische Anwendungsfälle angepasst wird.
45-
Dieser Ansatz reduziert den Trainingsaufwand erheblich und ermöglicht es, umfangreiche, generische Modelle für spezifische Domänen zu verfeinern.
46-
47-
- **Datenpipelines:**
48-
Eine robuste Datenpipeline ist entscheidend für die Vorbereitung und Aufbereitung großer Datenmengen.
49-
Sie umfasst Schritte wie das Sammeln, Bereinigen und Transformieren der Rohdaten, sodass diese in einem für das Training geeigneten Format vorliegen.
50-
Datenaugmentation und Vorverarbeitungstechniken tragen zusätzlich dazu bei, die Vielfalt und Qualität der Trainingsdaten zu verbessern.
51-
52-
- **Skalierungstechniken:** Angesichts der oft enormen Daten- und Modellgrößen werden Techniken wie verteiltes Training, Modellparallelismus und Pipeline-Parallelismus eingesetzt.
53-
Diese Methoden ermöglichen es, das Training auf mehreren GPUs oder TPUs gleichzeitig durchzuführen, wodurch die Trainingszeiten erheblich verkürzt und die Effizienz gesteigert wird.
54-
55-
Das Zusammenspiel von leistungsfähiger Hardware, robusten Software-Frameworks und einer durchdachten Architektur bildet die Grundlage, um skalierbare und leistungsfähige KI-Systeme zu entwickeln und erfolgreich in produktive Umgebungen zu überführen.
50+
Modellaufbau und Feintuning
51+
Häufig wird ein vortrainiertes Modell als Ausgangspunkt verwendet, das dann
52+
mittels Feintuning an spezifische Anwendungsfälle angepasst wird. Dieser
53+
Ansatz reduziert den Trainingsaufwand erheblich und ermöglicht es,
54+
umfangreiche, generische Modelle für spezifische Domänen zu verfeinern.
55+
Datenpipelines
56+
Eine robuste Datenpipeline ist entscheidend für die Vorbereitung und
57+
Aufbereitung großer Datenmengen. Sie umfasst Schritte wie das Sammeln,
58+
Bereinigen und Transformieren der Rohdaten, sodass diese in einem für das
59+
Training geeigneten Format vorliegen. Datenaugmentation und
60+
Vorverarbeitungstechniken tragen zusätzlich dazu bei, die Vielfalt und
61+
Qualität der Trainingsdaten zu verbessern.
62+
Skalierungstechniken
63+
Angesichts der oft enormen Daten- und Modellgrößen werden Techniken wie
64+
verteiltes Training, Modellparallelismus und Pipeline-Parallelismus
65+
eingesetzt. Diese Methoden ermöglichen es, das Training auf mehreren GPUs
66+
oder TPUs gleichzeitig durchzuführen, wodurch die Trainingszeiten erheblich
67+
verkürzt und die Effizienz gesteigert wird.
68+
69+
Das Zusammenspiel von leistungsfähiger Hardware, robusten Software-Frameworks
70+
und einer durchdachten Architektur bildet die Grundlage, um skalierbare und
71+
leistungsfähige KI-Systeme zu entwickeln und erfolgreich in produktive
72+
Umgebungen zu überführen.

docs/4gen_ai/genai_intro.rst

Lines changed: 38 additions & 22 deletions
Original file line numberDiff line numberDiff line change
@@ -16,29 +16,45 @@ Anwendungsbeispiele
1616

1717
Generative KI findet in zahlreichen Anwendungsbereichen Einsatz, was ihre enorme Vielseitigkeit unterstreicht. Beispiele hierfür sind:
1818

19-
- **Textgenerierung:** Automatisches Verfassen von Artikeln, Zusammenfassungen oder kreativen Geschichten.
20-
Chatbots und virtuelle Assistenten nutzen generative Modelle, um menschenähnliche Konversationen zu führen.
21-
22-
- **Bildgenerierung:** Erzeugung von realistischen oder künstlerischen Bildern, die beispielsweise in der Werbung, im Design oder in der Kunst Anwendung finden.
23-
Tools wie DALL-E oder Stable Diffusion illustrieren diesen Einsatz.
24-
25-
- **Musik- und Soundkomposition:** Erstellung neuer Musikstücke oder Klanglandschaften, die sowohl in der Unterhaltungsindustrie als auch in der Filmproduktion genutzt werden.
26-
27-
- **Weitere kreative Anwendungen:** Dazu zählen die Generierung von Videos, Code-Snippets oder auch die Simulation komplexer Szenarien in wissenschaftlichen Modellen.
28-
29-
Diese Beispiele zeigen, dass generative Modelle weit über die rein analytische Datenverarbeitung hinausgehen und kreativitätsfördernde Prozesse unterstützen können.
19+
Textgenerierung
20+
Automatisches Verfassen von Artikeln, Zusammenfassungen oder kreativen
21+
Geschichten. Chatbots und virtuelle Assistenten nutzen generative Modelle,
22+
um menschenähnliche Konversationen zu führen.
23+
Bildgenerierung
24+
Erzeugung von realistischen oder künstlerischen Bildern, die beispielsweise
25+
in der Werbung, im Design oder in der Kunst Anwendung finden. Tools wie
26+
DALL-E oder Stable Diffusion illustrieren diesen Einsatz.
27+
Musik- und Soundkomposition
28+
Erstellung neuer Musikstücke oder Klanglandschaften, die sowohl in der
29+
Unterhaltungsindustrie als auch in der Filmproduktion genutzt werden.
30+
Weitere kreative Anwendungen
31+
Dazu zählen die Generierung von Videos, Code-Snippets oder auch die
32+
Simulation komplexer Szenarien in wissenschaftlichen Modellen.
33+
34+
Diese Beispiele zeigen, dass generative Modelle weit über die rein analytische
35+
Datenverarbeitung hinausgehen und kreativitätsfördernde Prozesse unterstützen
36+
können.
3037

3138
Unterschiede zu diskriminativen Ansätzen
32-
---------------------------------------------
39+
----------------------------------------
3340

34-
Der Hauptunterschied zwischen generativen und diskriminativen Ansätzen liegt in ihrer Zielsetzung und Methodik:
41+
Der Hauptunterschied zwischen generativen und diskriminativen Ansätzen liegt in
42+
ihrer Zielsetzung und Methodik:
3543

36-
- **Generative Modelle** lernen die vollständige Wahrscheinlichkeitsverteilung der Eingabedaten.
37-
Sie können dadurch nicht nur Muster erkennen, sondern auch neue Datenpunkte generieren, die in das erlernte Schema passen.
38-
Dies ermöglicht kreative Anwendungen, bei denen neue Inhalte aus dem Gelernten abgeleitet werden.
39-
40-
- **Diskriminative Modelle** hingegen konzentrieren sich darauf, zwischen vorgegebenen Klassen oder Kategorien zu unterscheiden.
41-
Sie sind darauf trainiert, direkt aus den Eingabedaten Entscheidungen zu treffen, beispielsweise ob ein Bild eine Katze oder einen Hund zeigt.
42-
Dabei steht die Klassifikation im Vordergrund, ohne dass ein tiefergehendes Verständnis der zugrunde liegenden Datenverteilung erforderlich ist.
43-
44-
Während also diskriminative Ansätze primär in der Erkennung und Kategorisierung von Mustern eingesetzt werden, ermöglichen generative Modelle die Erzeugung von neuen, bisher nicht existierenden Inhalten – was sie zu einem zentralen Baustein moderner kreativer und innovativer KI-Anwendungen macht.
44+
Generative Modelle
45+
lernen die vollständige Wahrscheinlichkeitsverteilung der Eingabedaten. Sie
46+
können dadurch nicht nur Muster erkennen, sondern auch neue Datenpunkte
47+
generieren, die in das erlernte Schema passen. Dies ermöglicht kreative
48+
Anwendungen, bei denen neue Inhalte aus dem Gelernten abgeleitet werden.
49+
Diskriminative Modelle
50+
hingegen konzentrieren sich darauf, zwischen vorgegebenen Klassen oder
51+
Kategorien zu unterscheiden. Sie sind darauf trainiert, direkt aus den
52+
Eingabedaten Entscheidungen zu treffen, beispielsweise ob ein Bild eine
53+
Katze oder einen Hund zeigt. Dabei steht die Klassifikation im Vordergrund,
54+
ohne dass ein tiefergehendes Verständnis der zugrunde liegenden
55+
Datenverteilung erforderlich ist.
56+
57+
Während also diskriminative Ansätze primär in der Erkennung und Kategorisierung
58+
von Mustern eingesetzt werden, ermöglichen generative Modelle die Erzeugung von
59+
neuen, bisher nicht existierenden Inhalten – was sie zu einem zentralen
60+
Baustein moderner kreativer und innovativer KI-Anwendungen macht.

0 commit comments

Comments
 (0)