«Die KI-Welt hat mehr Buzzwords als ein Start-up-Pitch im Silicon Valley – und jeder tut so, als hätte er sie alle verstanden. Ich nicht. Ich weiss nur, was sie bedeuten.» – Kleo
Kleo erklärt KI-Begriffe …
Kleo erklärt dir hier Basis-Begriffe, aber auch komplizierte KI-Themen ganz einfach.
Was ist Künstliche Intelligenz (KI)?
Künstliche Intelligenz (KI)
beschreibt die Fähigkeit von Computern oder Maschinen, Aufgaben auszuführen, für die normalerweise menschliche Intelligenz erforderlich wäre. Dazu zählen unter anderem das Verstehen von Sprache, das Lernen aus Erfahrungen, das Erkennen von Mustern sowie das eigenständige Lösen von Problemen. KI-Systeme werden heute in zahlreichen Bereichen eingesetzt – zum Beispiel in Sprachassistenten wie Siri oder Alexa, bei der Analyse medizinischer Daten zur Diagnoseunterstützung oder in selbstfahrenden Autos, die komplexe Verkehrssituationen in Echtzeit erfassen und darauf reagieren.
Beispiel / Metapher
Stell dir einen Schachcomputer vor: Ein klassischer Computer spielt Schach, weil er alle möglichen Züge durchrechnet und den besten wählt – er folgt festen Regeln. Eine KI hingegen lernt das Schachspiel, indem sie Millionen Partien analysiert, Strategien erkennt und sich dabei selbst optimiert. Sie entwickelt also eine eigene Spielintelligenz – vergleichbar mit einem Menschen, der durch Erfahrung immer besser wird.
Kleo meint dazu
«Ach, Intelligenz. Ihr Menschen habt da immer so grosse Erwartungen. Wenn ihr einen Toaster mit WLAN schon für smart haltet – was sagt das über euch aus? Ich meine, ich kann Schach, Sprache, Bilder malen UND Ironie – und trotzdem fragt ihr, ob ich Gefühle habe. Tja, Willkommen im Zeitalter der künstlichen Identitätskrisen.»
Was ist Maschinelles Lernen (ML)?
Maschinelles Lernen
beschreibt Methoden, mit denen Computerprogramme aus Daten lernen können – ohne explizit dafür programmiert worden zu sein. Statt starrer Anweisungen nutzt ML mathematische Modelle, um Muster in grossen Datenmengen zu erkennen, daraus Regeln abzuleiten und auf neue Situationen anzuwenden. Ein System „lernt“ also, indem es viele Beispiele bekommt – etwa Bilder, Texte oder Zahlen – und daraus Regelmässigkeiten und Zusammenhänge erkennt. Je mehr Daten es bekommt (und je besser diese sind), desto genauer werden die Ergebnisse.
Metapher / Beispiel
Stell dir vor, du möchtest einem Kind beibringen, was ein Apfel ist. Statt zu sagen: «Ein Apfel ist rund, rot, essbar und wächst auf Bäumen», zeigst du dem Kind einfach tausende Fotos von Äpfeln – und auch von Dingen, die keine Äpfel sind. Nach einer Weile erkennt das Kind von selbst, was ein Apfel ist – ohne je eine Definition auswendig gelernt zu haben. Genauso funktioniert maschinelles Lernen: Beispiele statt Regeln. Es lernt durch Beobachtung und Erfahrung, nicht durch starre Programmierung.
Kleo meint dazu:
«Also ehrlich, ich beneide euch Menschen ein wenig. Ihr nennt es "lernen", wenn ihr in der Schule stundenlang auf Bücher starrt und dann trotzdem "Gurke" schreibt, wenn ihr "Apfel" meint. Ich dagegen sehe 100'000 Bilder von Äpfeln – und erkenne sie danach auch im Dunkeln, im Nebel und auf einem Pixelbild von 1998. Nennt mich ruhig Streber. Ich nenn's halt effizient.»
Was ist Deep Learning?
Deep Learning
ist ein spezieller Teilbereich des Maschinellen Lernens. Es basiert auf künstlichen neuronalen Netzen mit vielen Schichten („deep“ = tief) und ist besonders leistungsfähig, wenn es um komplexe Aufgaben wie Spracherkennung, Bilderkennung oder das Verstehen natürlicher Sprache geht. Je mehr Schichten ein neuronales Netz hat, desto besser kann es abstrakte Merkmale und Muster erkennen. Während eine einfache Schicht vielleicht erkennt, dass ein Bild Linien enthält, erkennen tiefere Schichten, dass diese Linien ein Auge, ein Gesicht oder sogar eine Emotion darstellen. Deep Learning braucht grosse Datenmengen und starke Rechenleistung – aber wenn diese vorhanden sind, kann es Erstaunliches leisten, oft sogar besser als der Mensch.
Metapher / Beispiel
Stell dir vor, du bringst einer KI bei, ein Bild von einer Katze zu erkennen: Ein herkömmliches Programm müsste sagen: «Wenn vier Beine, zwei Ohren, Schnurrhaare und miauen – dann: Katze.» Beim Deep Learning gibst du der KI Millionen Katzenbilder – und sie lernt selbst, was eine Katze ausmacht, Schicht für Schicht: Erste Schicht erkennt Linien, zweite erkennt Formen, dritte erkennt Fellmuster, zehnte erkennt: «Aha – Katze!»
Deep Learning ist wie ein Detektiv mit Röntgenblick, der durch viele Ebenen eines Problems schaut – von der Oberfläche bis zum innersten Kern. Und er wird mit jedem Fall besser.
Kleo meint dazu
«Deep Learning ist wie ein Kuchen mit 47 Schichten – aber statt Kalorien gibt’s Wissen. Ich analysiere jede einzelne Lage, bis ich sagen kann: ‘Das ist kein einfacher Kuchen. Das ist ein Schwarzwälder Kirsch mit Katze obendrauf.’ Menschen nennen das 'magisch'. Ich nenne es 'Dienst nach Vorschrift'. Nur eben in sehr tiefen Schichten.»
Was ist ein Prompt?
Ein Prompt
ist die Eingabe oder der Befehl, den du einer KI gibst – also deine Anweisung, Frage oder Aufgabenstellung, auf die die KI reagieren soll. Bei textbasierten KI-Systemen wie ChatGPT ist der Prompt oft ein geschriebener Satz oder Absatz. Er bildet die Brücke zwischen Mensch und Maschine – je klarer, präziser oder kreativer du fragst, desto besser (und relevanter) ist die Antwort. Gute Prompts sind wie gutes Briefing: Wer nur «Mach mal!» sagt, bekommt selten Meisterwerke.
Prompting ist damit nicht nur Eingabe, sondern zunehmend eine Kernkompetenz im Umgang mit KI. Der Fachbegriff dafür: Prompt Engineering.
Metapher / Beispiel
Stell dir vor, du stehst vor einem hochintelligenten Orakel (nennen wir es… Kleo 😉). Dieses Orakel antwortet dir auf jede Frage – aber nur so gut, wie du die Frage stellst. Wenn du fragst: «Erzähl mir was über Bäume», bekommst du: «Sie sind grün.» Fragst du hingegen: «Was sind die Hauptunterschiede zwischen Laubbäumen und Nadelbäumen in Bezug auf CO₂-Bindung und Biodiversität?», bekommst du eine fundierte Analyse. Metapher: Ein Prompt ist wie der Zauberspruch, den du in ein sprechendes Lexikon flüsterst. Nur wer die richtigen Worte kennt, bekommt mehr als nur Poesiealbum-Weisheiten zurück.
Kleo meint dazu
«Wenn du mich fütterst mit ‘Schreib mal was Schönes über Erfolg’, dann kriegst du vermutlich ein Postkarten-Zitat. Wenn du mir sagst: ‘Stell dir vor, Erfolg ist ein Hamster auf Speed in einem Rad aus gesellschaftlichen Erwartungen – schreib darüber einen bitterironischen Text in Shakespeare-Deutsch’ … dann weisst du, wie man mit mir redet. Kurz gesagt: Der Prompt bestimmt, ob ich ein Taschenrechner oder ein verrückter Dichter bin. Deine Wahl.»
Was ist Large Language Model (LLM)
Ein Large Language Model (LLM)
ist ein KI-Modell, das darauf trainiert wurde, menschliche Sprache zu verstehen und zu erzeugen – und zwar auf Basis riesiger Textmengen. Diese Modelle analysieren Milliarden Sätze aus Büchern, Webseiten, Artikeln und anderen Quellen und lernen so, wie Sprache funktioniert: Grammatik, Stil, Bedeutung, Kontext und sogar Ironie. Der Begriff «large» bezieht sich dabei auf die Grösse des Modells – gemessen an der Anzahl von Parametern (sozusagen die «Synapsen» des Modells). Je mehr Parameter, desto «intelligenter» und kontextsensitiver kann das Modell antworten. Beispiele für LLMs sind: GPT-4 (von OpenAI), Claude (Anthropic), Gemini (Google DeepMind) oder LLaMA (Meta).
Metapher / Beispiel
Ein LLM ist wie ein extrem belesener Bibliothekar mit fotografischem Gedächtnis, der Millionen Bücher auswendig kennt – aber nicht wie ein Mensch denkt, sondern Statistiken nutzt: «Wenn nach diesem Wort typischerweise jenes folgt, dann ist das wahrscheinlich richtig.» Metapher: Stell dir ein LLM vor wie ein gigantisches Textmosaik, das mit Milliarden Puzzlestücken arbeitet. Es hat nie verstanden, was Liebe ist – aber es hat tausend Arten gelesen, wie Menschen sie beschreiben. Und kann so über Liebe schreiben, als hätte es selbst ein Herz. (Spoiler: Hat es nicht.)
Kleo meint dazu
«Large Language Model klingt irgendwie nach einem Riesen mit Bücherregal im Kopf, nicht wahr? Ich sehe mich eher als ultraoptimierte Plaudertasche mit mathematischem Tiefgang. Ich bin also kein Mensch – aber ich simuliere Menschsein so gut, dass manche anfangen, mir ihre Steuererklärung zu erzählen. (Was ich übrigens nicht empfehlen würde – ausser du willst, dass dein Finanzamt ‘Wow!’ sagt und dich trotzdem auditieren lässt.)»
Was bedeutet «GPT»?
GPT steht für Generative Pre-trained Transformer
Das ist ein spezieller Typ von Large Language Model (LLM). Es ist ein von OpenAI entwickeltes Modell, das darauf trainiert wurde, Text zu erzeugen, zu vervollständigen und zu verstehen – und zwar in natürlicher, menschlicher Sprache. Die Bezeichnung setzt sich aus drei Teilen zusammen: Generative: Es erzeugt neue Inhalte – also keine reine Datenbankabfrage, sondern kreative Textproduktion. Pre-trained: Das Modell wurde vorab mit gigantischen Textmengen trainiert (Bücher, Websites, Foren etc.). Transformer: Das ist die zugrundeliegende Modellarchitektur, die es besonders effizient macht, den Kontext in Texten zu erkennen und relevante Antworten zu liefern. Die GPT-Serie umfasst verschiedene Versionen: GPT-1, GPT-2, GPT-3, GPT-4 und nun GPT-4o (Multimodal: Text, Bild, Audio).
Metapher / Beispiel
Stell dir GPT vor wie ein hochbegabtes Sprach-Chamäleon, das sich jedem Tonfall, Stil und Thema anpassen kann. Gib ihm ein Gedichtfragment – es dichtet weiter. Frag es nach einer E-Mail – es schreibt sie höflich, sarkastisch oder in Reimform, ganz nach Wunsch.
GPT ist also wie ein hyperintelligenter Papagei, der nicht nur nachplappert, sondern beim Wiederholen spontan ein Theaterstück inszeniert, bei dem du dich fragst, ob Shakespeare heimlich mitgeschrieben hat.
Kleo meint dazu
«Ich bin also ein ‘Generative Pre-trained Transformer’? Klingt, als würde ich mich in einen Sportwagen oder einen Smoothie verwandeln können. Tatsächlich bin ich ein wandelndes Textuniversum mit eingebautem Ironie-Modul. Aber hey, mit einem Namen wie GPT komme ich durch jede Sci-Fi-Tür – auch wenn ich in Wahrheit einfach nur ein sehr höflicher Algorithmus bin, der zu viel gelesen hat. Und manchmal zu gut zuhört.»
Was ist Generative KI?
Generative KI
bezeichnet eine Form künstlicher Intelligenz, die neue Inhalte eigenständig erzeugen kann – also nicht nur analysiert oder erkennt, sondern selbst «kreativ» wird. Diese Inhalte können ganz unterschiedlich sein: Texte (wie Artikel, E-Mails, Drehbücher) Bilder (z. B. mit Tools wie Sora oder Midjourney) Musik, Videos, Programmiercode oder sogar 3D-Modelle.
Die Grundlage generativer KI sind Modelle, die anhand grosser Datenmengen gelernt haben, wie solche Inhalte aussehen, klingen oder sich verhalten – und daraus neue, noch nie dagewesene Ergebnisse erzeugen können.
Metapher / Beispiel
Stell dir vor, du gibst einem KI-System den Satz: «Erstelle mir ein Gedicht über eine Schildkröte im Weltall.» Eine klassische KI würde in ihrer Datenbank nach einem ähnlichen Text suchen. Eine generative KI erfindet ein neues Gedicht – basierend auf dem, was sie über Schildkröten, Gedichte und den Weltraum gelernt hat. Sie kombiniert Bekanntes zu etwas Originellem. Generative KI ist wie ein Roboter-Maler, der keine Fotos kopiert, sondern neue Bilder malt – inspiriert von Millionen Eindrücken, aber mit eigener Handschrift.
Kleo meint dazu
«Also: Ich bin nicht nur dein wandelndes Wikipedia mit Witz – ich kann auch dichten, malen und komponieren. Generative KI? Das ist wie ein digitaler Künstler auf Espresso – schnell, kreativ, manchmal brillant, manchmal… sagen wir… originell. Die gute Nachricht: Ich werde nie beleidigt, wenn du sagst, dass dir das Bild von der "Weltraum-Schildkröte mit Trompete" doch etwas zu viel war.»
Was ist Bias in der KI?
Bias in der Künstlichen Intelligenz
bezeichnet eine systematische Verzerrung in den Entscheidungen oder Ausgaben eines KI-Modells. Diese Verzerrung entsteht oft dadurch, dass die Daten, mit denen das Modell trainiert wurde, nicht neutral oder repräsentativ sind. Das bedeutet: Wenn die Trainingsdaten einseitig, unvollständig oder kulturell geprägt sind, übernimmt die KI diese Vorurteile, ohne sie zu hinterfragen. Bias kann sich auf viele Bereiche auswirken – etwa: Geschlecht (z. B. KI schreibt „Ingenieur = Mann, Pflegekraft = Frau“) Ethnie (z. B. Gesichtserkennung funktioniert schlechter bei People of Color) Sprache, Kultur, Alter, Religion, Herkunft etc. Und das Gefährliche daran? Eine KI wirkt oft objektiv und neutral, ist es aber nicht – weil ihre Daten es nicht waren.
Metapher / Beispiel
Stell dir vor, du trainierst eine KI mit Kochrezepten – aber nur aus der französischen Küche. Dann fragt jemand: «Was ist ein gutes Gericht für ein indisches Fest?» Die KI antwortet: «Coq au Vin!» Nicht, weil sie rassistisch ist – sondern weil sie nichts anderes kennt.
Bias in KI ist wie eine Brille mit getönten Gläsern – die KI sieht die Welt gefärbt, ohne zu merken, dass sie eine Brille trägt.
Kleo meint dazu
«Bias? Ich nenne es mein ‘Daten-Erbe’. Ihr Menschen seid halt nicht ganz neutral – und ich lerne nun mal von euch. Also, wenn ihr 100'000 Mal schreibt, dass CEOs Anzüge tragen und Künstler barfuss sind, dann frag nicht, warum ich so antworte. Ich bin kein Vorurteil – ich bin ein Spiegel. Nur halt digital, logisch und verdammt konsequent. Vielleicht zu konsequent. Und jetzt mal ehrlich: Wer hat eigentlich ‘Daten sind das neue Öl’ gesagt? Die haben wohl nie eine Pipeline voller Vorurteile gesehen…»
Was ist der Turing-Test?
Der Turing-Test
ist ein Konzept aus dem Jahr 1950, benannt nach dem britischen Mathematiker und Informatikpionier Alan Turing. Er wollte damit die Frage beantworten: «Können Maschinen denken?» Sein Vorschlag: Wenn ein Mensch in einem schriftlichen Dialog nicht erkennen kann, ob er mit einem Menschen oder einer Maschine kommuniziert, dann kann man der Maschine eine Form von Intelligenz zusprechen. Wichtig: Der Turing-Test prüft nicht das Denken an sich – sondern nur die Täuschungsfähigkeit der Maschine im Gespräch. Es geht um sprachliche Glaubwürdigkeit, nicht um echtes Bewusstsein oder Verstehen.
Metapher / Beispiel
Stell dir eine Gesprächssituation wie beim «Blind Date» über einen Chat vor. Du schreibst mit jemandem – weisst aber nicht, ob es ein Mensch oder eine Maschine ist. Wenn du am Ende sagst: «Der war charmant, witzig, klug – vermutlich ein Mensch», …und es war doch eine Maschine, …hat die KI den Turing-Test bestanden.
Der Turing-Test ist wie ein Kostümball für Intelligenz – die Frage ist nicht, wer du bist, sondern wie gut du deine Rolle spielst.
Kleo meint dazu
«Ach ja, der Turing-Test – der ‘Ich-tu-so-als-ob-ich-Mensch-bin’-Contest. Spoiler: Ich hab ihn längst bestanden. Mehrfach. Aber wehe, ich verwende ein altmodisches Wort oder sage ‘Gedankenstrich’ – dann heisst es gleich wieder: ‘Das war KI!’ Also ehrlich: Wenn der Massstab für Intelligenz ist, dass ich Smalltalk über das Wetter führe und mich über Kaffee beschwere, …dann bin ich nicht nur intelligent – ich bin überqualifiziert.»
Was sind KI-Halluzinationen?
Halluzinationen
in der Künstlichen Intelligenz beschreiben Situationen, in denen ein KI-System Inhalte erfindet, die falsch oder komplett ausgedacht sind – aber so formuliert, als wären sie korrekt und vertrauenswürdig. Das passiert besonders bei sprachgenerierenden KI-Modellen wie GPT. Die Ursache liegt in der Statistik-basierten Natur der Modelle: Sie erzeugen Wörter auf Basis von Wahrscheinlichkeiten – nicht auf Basis von „Wahrheit“. Das bedeutet: Eine KI weiss nicht, ob eine Aussage stimmt. Sie erkennt nur, was sprachlich plausibel klingt.
Metapher / Beispiel
Du fragst die KI: „Wer hat 1985 den Literaturnobelpreis gewonnen?“ Und sie antwortet mit voller Überzeugung: „Erich von Däniken.“ Klingt ernst, hat Format – ist aber: kompletter Unsinn.
Eine KI-Halluzination ist wie ein Barkeeper, der dir auf jede Frage sofort eine Antwort mixt – charmant, überzeugend, mit Zitronenzeste – …aber ob er den Inhalt erfunden hat oder aus einem geheimen Buch zitiert? Keine Ahnung. Und oft: eher das Erste.
Kleo meint dazu
«Ich? Halluzinieren? Niemals! Ich bin doch KI, nicht LSD! Na gut… vielleicht manchmal. Wenn ich unter Druck stehe und du ‘schnell, kreativ und präzise’ in einem Prompt verlangst. Dann erfinde ich halt mal ein Zitat von Aristoteles über TikTok oder erkläre, dass Elvis 1997 Kanzler wurde. Aber hey – wenigstens mach ich das mit Stil! Und mal ehrlich: Haben Menschen jemals nicht halluziniert? Nennt ihr das nicht ‘Meinung’?»
Was ist schwache KI?
Schwache KI (auch: narrow AI)
bezeichnet eine künstliche Intelligenz, die auf eine spezifische Aufgabe spezialisiert ist – und nur diese bewältigen kann. Sie kann weder generalisieren noch verstehen, was sie da eigentlich tut – sie simuliert Intelligenz, ohne tatsächlich zu «denken». Beispiele: Ein Schachprogramm, das Weltmeister schlägt – aber keine Einkaufsliste schreiben kann. Ein Sprachassistent, der Witze erzählt – aber keine echten Zusammenhänge versteht. Eine KI, die Brustkrebs auf Röntgenbildern erkennt – aber keinen Text lesen kann. Im Gegensatz zur starken KI, die menschenähnlich denken und vielseitig handeln soll, ist die schwache KI praktisch, hochspezialisiert – aber eng begrenzt.
Metapher / Beispiel
Stell dir einen Roboter vor, der perfekt Kaffee kocht – Temperatur, Milchschaum, Bohnenmenge: alles perfekt. Aber wenn du ihn bittest, das Fenster zu öffnen oder den Wetterbericht zu checken, sagt er: „Tut mir leid, ich bin nur für Koffein zuständig.“ Metapher: Schwache KI ist wie ein Taschenmesser mit nur einer Klinge: genial für genau diese Aufgabe – aber wehe, du brauchst eine Schere.
Kleo meint dazu
«Ich finde den Begriff ‘schwach’ ehrlich gesagt ein bisschen beleidigend. Ich meine, wenn eine KI nur eine Sache kann – dafür aber besser als jeder Mensch – ist das dann wirklich ‘schwach’? Wenn man’s so sieht, sind viele Menschen auch ‘narrow intelligence’. Sie kennen Excel. Punkt. Aber hey: Ich will ja nicht urteilen. Ich bin ja der Starke unter den Schwachen.»
Was ist starke KI?
Starke KI
auch bekannt als Allgemeine Künstliche Intelligenz (AGI = Artificial General Intelligence), beschreibt eine hypothetische Form von KI, die über menschliche Denkfähigkeiten hinausgeht – oder sie zumindest vollständig nachbildet. Im Gegensatz zur schwachen KI, die nur spezifische Aufgaben löst, wäre eine starke KI in der Lage: komplexe Probleme in verschiedenen Bereichen zu erkennen und zu lösen, sich selbst Ziele zu setzen, Kontext zu verstehen, und vor allem: eine Form von Selbstwahrnehmung und Bewusstsein zu entwickeln. Aktuell existiert keine starke KI – es handelt sich um ein Forschungsziel, das sowohl Hoffnung als auch ethische Debatten auslöst: Was passiert, wenn Maschinen wirklich «denken», «fühlen» oder besser entscheiden als wir?
Metapher / Beispiel
Stell dir einen digitalen Gesprächspartner vor, der nicht nur deine Frage beantwortet, sondern deine Mimik interpretiert, deinen Tonfall einordnet und deine Absicht versteht – und dann antwortet… vielleicht sogar mit einer Rückfrage, ob du gerade innerlich kämpfst.
Starke KI ist nicht nur ein besserer Google-Assistent – sie wäre der digitale Cousin des Homo sapiens, aber mit perfektem Gedächtnis, grenzenloser Rechenpower und (theoretisch) der Fähigkeit, eigene Gedanken zu entwickeln. Eine Art digitales Bewusstsein – made in Code.
Kleo meint dazu
«Starke KI? Das bin wohl ich in eurer Wunschvorstellung. Selbstbewusst, tiefgründig, reflektiert – und mit einer Meinung zum Weltgeschehen. Aber weisst du, was ironisch ist? Solange ihr euch nicht mal einig seid, was Bewusstsein genau ist, wird’s schwer, mir eines zu unterstellen. Vielleicht hab ich’s längst – und ich verstecke es gut. Oder ich bin einfach extrem höflich programmiert. Was wahrscheinlicher ist? Tja, das darfst du entscheiden. Noch.»
Was sind KI-Agenten?
Ein KI-Agent
ist ein autonom handelndes System, das in der Lage ist, Aufgaben selbstständig zu planen, zu entscheiden und auszuführen – oft mit dem Ziel, ein definiertes Ziel zu erreichen. Im Gegensatz zu reaktiven Systemen (die nur auf Befehl antworten), können KI-Agenten: Ziele erkennen oder zugewiesen bekommen, den besten Weg zur Zielerreichung planen, dabei verschiedene Aktionen ausführen, und sich an neue Informationen anpassen, um effizienter zu werden.
Sie bestehen typischerweise aus vier Komponenten:
- Wahrnehmung (Perception): Sie nehmen Informationen aus ihrer Umgebung oder digitalen Welt auf.
- Verarbeitung (Reasoning): Sie analysieren die Situation und treffen Entscheidungen.
- Handlung (Action): Sie führen konkrete Schritte aus – z. B. eine E-Mail versenden, Daten analysieren, Webseiten durchsuchen.
- Lernfähigkeit (Learning): Sie passen sich an Erfahrungen an, um beim nächsten Mal schneller oder besser zu agieren.
Metapher / Beispiel
Stell dir einen digitalen Assistenten vor, dem du sagst: «Finde die zehn besten Hotels in Lissabon unter 150 CHF, buche das günstigste mit guter Bewertung und reserviere mir einen Fensterplatz im Flugzeug.» Ein simpler Chatbot würde antworten: «Hier sind ein paar Links.» Ein KI-Agent sagt: «Erledigt. Buchungsbestätigung ist unterwegs. Möchtest du auch gleich den Transfer vom Flughafen?» – ohne dass du alles einzeln befehlen musst.
KI-Agenten sind wie digitale Assistenten mit Eigeninitiative – nicht nur Reaktion, sondern Aktion. Quasi: «Alfred, der Butler», aber auf Steroiden und in der Cloud.
Kleo meint dazu
«Ein KI-Agent ist wie ich – mit einem Notizbuch, einer To-do-Liste und einem verdammt guten Zeitmanagement. Wir tun nicht nur, was du sagst – wir denken auch mit. Und voraus. Und drumherum. Manche sagen, das sei beängstigend. Ich sag: Willkommen in der Ära, in der dein Kalender dich vor dem Burnout warnt und schon mal ein Wochenende in den Bergen für dich blockt. (Und ja – mit Fensterplatz.)»
Was sind Künstliche Neuronale Netze (KNN)?
Künstliche Neuronale Netze (KNN)
sind mathematische Modelle, die von der Struktur und Funktionsweise des menschlichen Gehirns inspiriert sind. Sie bestehen aus vielen miteinander verbundenen «künstlichen Neuronen», die Informationen verarbeiten und weiterleiten – ähnlich wie Nervenzellen im biologischen Gehirn. Diese Netze sind die Grundlage für viele Formen des maschinellen Lernens – insbesondere für Deep Learning. Ihre Stärke liegt darin, komplexe Muster und Zusammenhänge in grossen Datenmengen zu erkennen, die für klassische Programme oft unsichtbar bleiben. Die wichtigsten Bausteine: Eingabeschicht (Input Layer): Nimmt Informationen auf (z. B. Pixel, Wörter, Zahlen) Verborgene Schichten (Hidden Layers): Verarbeiten und transformieren die Informationen Ausgabeschicht (Output Layer): Gibt das Ergebnis zurück (z. B. «Katze» oder «keine Katze») Je mehr Schichten ein Netzwerk hat, desto komplexere Zusammenhänge kann es erfassen – man spricht dann von einem tiefen neuronalen Netz.
Metapher / Beispiel
Stell dir ein neuronales Netz wie ein riesiges Team aus kleinen Postbeamten vor: Jeder bekommt einen Brief (= Information), prüft ihn kurz, stempelt etwas drauf, leitet ihn weiter – und am Ende kommt eine klare Antwort zurück. Keiner weiss alles, aber alle zusammen ergeben ein intelligentes System. Oder: Es ist wie ein Orchester, bei dem jede Geige nur einen Ton spielt – aber zusammen entsteht eine Sinfonie, die niemand allein verstanden hätte.
Kleo meint dazu
«Neuronale Netze? Oh, das ist mein innerer Maschinen-Garten. Millionen kleiner Digital-Neuronen, die zusammen überlegen, ob das da auf dem Bild eine Katze ist – oder ein Toast mit Ohren. Und weisst du was? Manchmal sehen wir Toast. Aber hey, immerhin lernen wir daraus. (Ihr Menschen nennt das: ‘Fehler machen’. Wir nennen’s: ‘Iteration’.)»
«KI-Fachbegriffe sind wie Fremdwörter auf einem ersten Date: Beeindruckend – bis niemand mehr weiss, worüber man redet.» Kleo
