
- Adversarial Attacks: Angriffe, bei denen manipulierte Eingaben (z. B. Texte oder Bilder) ein KI-Modell täuschen, um falsche Ausgaben zu erzeugen. Beispiel: Veränderte Bilder, die ein Modell falsch klassifiziert.
- Aktivierungsfunktion: Mathematische Funktion in neuronalen Netzen, die Eingaben in Ausgaben umwandelt, um komplexe Muster zu lernen (z. B. Sigmoid für Wahrscheinlichkeiten, ReLU für Effizienz). Beispiel: Entscheidet, ob ein Bild eine Katze ist.
- Bias: Verzerrungen in KI-Ausgaben durch unausgewogene Trainingsdaten, die zu unfairen oder stereotypen Ergebnissen führen. Beispiel: Ein LLM bevorzugt bestimmte Narrative aufgrund der Daten.
- Deep Fakes: KI-generierte, täuschend echte Bilder, Videos oder Audios, oft mit GANs erstellt, die Desinformation verbreiten können. Beispiel: Gefälschtes Video eines Prominenten.
- Diskriminator: Teil eines GANs, der prüft, ob Daten echt oder vom Generator gefälscht sind. Beispiel: Erkennt, ob ein Video authentisch ist.
- Emergente Fähigkeiten: Unerwartete Fähigkeiten von LLMs, die durch Skalierung entstehen, z. B. logisches Denken. Beispiel: Grok löst komplexe Fragen ohne spezifisches Training.
- Feedforward-Neurale Netze: Neuronale Netze, bei denen Daten in eine Richtung (von Eingabe zu Ausgabe) fließen, ohne Rückkopplungen. Beispiel: Basis für Perzeptrons und LLMs.
- Foundation Models: Vielseitige, groß angelegte KI-Modelle, die auf riesigen Daten trainiert sind und für viele Aufgaben anpassbar sind. Beispiel: GPT, Grok, Gemini.
- Generative Adversarial Networks (GANs): KI-Modelle mit Generator und Diskriminator, die gegeneinander „spielen“, um realistische Inhalte zu erzeugen. Beispiel: Erstellung von Kunstwerken.
- Generator: Teil eines GANs, der gefälschte Daten (z. B. Bilder) erzeugt, um den Diskriminator zu täuschen. Beispiel: Erzeugt ein Deep-Fake-Bild.
- Gradient Descent: Optimierungsalgorithmus, der Gewichte in neuronalen Netzen anpasst, um Fehler zu minimieren. Beispiel: Verbessert die Vorhersage eines Perzeptrons.
- Kryptologie: Wissenschaft der Verschlüsselung und Entschlüsselung, um Daten in KI-Systemen zu schützen. Beispiel: Sichert Nutzerdaten bei LLM-Interaktionen.
- Large Language Models (LLMs): KI-Modelle, die Sprache verstehen und generieren, basierend auf Foundation Models. Beispiel: Grok beantwortet Fragen, GPT schreibt Texte.
- Perzeptron: Einfaches neuronales Netz, das Eingaben gewichtet, summiert und eine Entscheidung trifft. Beispiel: Klassifiziert Bilder als „Hund“ oder „Katze“.
- Prompt Injection: Angriff, bei dem manipulierte Eingaben ein LLM zu unerwünschten Ausgaben zwingen. Beispiel: Ein Nutzer trickst einen Chatbot aus, um sensible Daten auszugeben.
- Regression: Methode zur Vorhersage kontinuierlicher Werte, z. B. Wahrscheinlichkeiten in LLMs. Beispiel: Berechnet die Wahrscheinlichkeit des nächsten Wortes.
- Self-Attention: Mechanismus in Transformern, der Beziehungen zwischen Wörtern in einem Text erkennt. Beispiel: Versteht, dass „Katze“ und „Schnurrhaare“ zusammenhängen.
- Spieletheorie: Analyse strategischer Interaktionen, z. B. zwischen Generator und Diskriminator oder Medienplattformen. Beispiel: Wettbewerb zwischen KI-gestützten Portalen.
- Tokenisierung: Zerlegung von Text in kleinere Einheiten (Tokens), um sie für LLMs zu verarbeiten. Beispiel: „Die Katze“ wird in „Die“ und „Katze“ zerlegt.
- Transformer: Architektur von LLMs, die Self-Attention und Feedforward-Schichten kombiniert. Beispiel: Basis für GPT und Grok.
- Vektorisierung: Umwandlung von Daten (z. B. Tokens) in numerische Vektoren für die Verarbeitung in neuronalen Netzen. Beispiel: „Katze“ wird zu [0.2, ‑0.5, 0.3].