AI-Agenten markieren eine neue Stufe in der Anwendung von künstlicher Intelligenz. Sie gehen weit über die reaktiven Fähigkeiten bisheriger AI-Assistenten wie Siri, Alexa oder Google Assistant hinaus und bieten proaktive, selbstständige Erledigung von digitalen Aufgaben einschließlich der Programmierung. Wenn man es etwas weiter fasst und Roboter einschließt, bezieht es sich sogar nicht nur auf die digitale Welt. Das ist allerdings ein Thema für sich, was in einem gesonderten Artikel beleuchtet wird.
Mehr Infos zur praktischen Anwendung von AI-Agenten, die eigenständig Zielvorgaben umsetzen.
Von AI-Assistenten zu AI-Agenten
Hinweis: In folgenden Artikel wird von AI zum synonymen Ausdruck KI (Künstliche Intelligenz) verwendet.
KI-Assistenten sind reaktive Systeme, die isolierte Aufgaben ausführen:
- Beispiele: Sprachassistenten wie Alexa, Chatbots im Kundenservice, Textvorschläge beim Schreiben.
- Merkmale: Sie warten auf Befehle, erledigen einzelne Aufgaben und besitzen kein eigenes Ziel.
- Anwendung: Da die Anfragen einfache sind und exakte Antwort erwartet werden, sind klassische Assistenten nicht obsolet. Zudem erfordert es je nach Einsatz weniger Rechenleistung, was auch eine lokale Anwendung möglich macht.
KI-Agenten hingegen handeln proaktiv, planen komplexe Abläufe und verfolgen übergeordnete Ziele:
- Beispiele: Finanzagenten, die Portfolios optimieren; Erstellung von Auswertungen und regelmäßigen Reports, Analysen und proaktive Informationen bei bestimmten Abweichungen (positiv wie negativ)
- Merkmale: Sie analysieren Daten, treffen Entscheidungen und setzen diese im Rahmen von Freigabeszenarien eigenständig um. Wie man es von guten Mitarbeitern erwartet, werden fehlende Informationen aktiv abgefragt, jedoch selbstständig Lösungswege gefunden.
Dazu ein ausführlicher Artikel von IBM: https://www.ibm.com/think/topics/ai-agents
Praktische Anwendungen von KI-Agenten
Vorteile:
- Effizienzsteigerung durch Automatisierung komplexer Aufgaben
- Optimierung durch kontinuierliche Datenanalyse und lernende Sequenzen
- Skalierbarkeit für unterschiedliche Anwendungsbereiche
Herausforderungen:
- Datenqualität: Fehlerhafte Daten können falsche Entscheidungen hervorrufen
- Sicherheit: Schutz sensibler Daten und Systeme ist essenziell
- Ethische Fragen: Entscheidungen müssen transparent und nachvollziehbar bleiben
Bei KI-Agenten sollte menschliche Überwachung integriert sein und die Möglichkeiten für Genehmigungen bei wichtigen Entscheidungsprozessen bieten.
Weitere Beispiele
- Automatisierung von Social-Media-Management: Für einzelne Aufgaben wie Ideenfindung, Text-, Bild- und Videoerstellung sowie Hashtag-Generierung wird AI bereits eingesetzt. AI Agenten können diese Einzelaufgaben zielgerichtet bündeln und es von “End-to-End” selbstständig durchführen. Das beinhaltet auch die Durchführung regelmäßiger Posts, Beantwortung von Kommentaren und Nachrichten sowie Analyse von Performance-Daten mit interner Weitergabe bestimmter Informationen.
- Finanzmanagement: KI-Agenten können Portfolios verwalten, Risiken analysieren, Vorschläge oder Entscheidungen im Handel treffen und Tradings sehr effektiv und optimiert durchführen.
- Unternehmenssupport: Sie erstellen interaktive Handbücher, optimieren die Nutzererfahrung und geben Anleitung bei Problemen bzw. finden Fehler und liefern direkt passende Lösungsvorschläge.
- Reiseplanung: Ein KI-Agent sucht nicht nur günstige Flüge, sondern analysiert zusätzlich Hotelbewertungen, Wetterdaten und Veranstaltungshinweise, um passendste Reiseoption anzubieten.
- Programmierung: Nach der Beschreibung, was eine Anwendung tun soll kann AI passende Programmiersprachen vorschlagen und selbstständig die Programmierung umsetzten. Wie bei einer Bildgenerierung ein Designer sind Programmierer für den richtigen Einsatz und den Erfolg mit einer optimalen Beschreibung der gewünschten Ergebnisse inkl. Zusatzfunktionen wichtig (also z.B. Sicherheitsmerkmale wie 2FA, Rechtemanagement, Rollen usw.) AI Agenten können kontinuierlich nach Fehlern oder Optimierungsmöglichkeiten auch im Coding suchen und diese direkt beheben oder Sicherheitsupdate schreiben und ausführen. Noch ist es am besten für kleinere Apps oder isolierte Aufgaben (“Tasks”) geeignet (z.B. bestimmte Services oder Schnittstellen) aber hier gibt ein Experte bereits einen Ausblick auf mehr: Morpheus auf YouTube
- Cybersecurity: KI-Systeme lernen das normale Verhalten von Netzwerken und vernetzten Geräten und erkennen dadurch ungewöhnliche Aktivitäten, die auf Cyberangriffe hindeuten könnten. Dies ist besonders wichtig, da IoT-Geräte oft über geringe Rechenleistung verfügen und herkömmliche Sicherheitssoftware nicht immer eingesetzt werden kann. Zudem ist für KI-Agenten eine automatische Reaktion möglich, z.B. indem sie betroffene Geräte isolieren sowie bei gefährdeten Geräten entsprechende Sicherheitsupdates einspielen. Dies ermöglicht eine schnellere und effizientere Reaktion auf Angriffe, was bei der aktuellen Entwicklung erforderlich ist, zumal der Missbrauch von AI eine digitale Bedrohung darstellen kann.
Hinweis: klassische CAPTCHAs sind für KI-Agenten keine Hürde (also die kleinen Bilderaufgaben, um Maschinen von Menschen zu unterscheiden). Auf Basis von CLIP von Open AI oder Vision von Google wird das Verhalten von Anwendern nachgestellt, was z.B. für KI-Helpdesk bzw. erweiterte KI-Service-Assistenten genutzt wird. Google hat daraufhin reCAPTCHA v3 eingeführt, das im Hintergrund arbeitet und das Nutzerverhalten kontinuierlich analysiert, ohne dass der Benutzer aktiv eine Aufgabe lösen muss. Dies macht es für KI-Agenten schwieriger, das System zu überlisten und hat für Anwender den Vorteil, dass im Internet keine lästigen Aufgaben zu erledigen sind.
Auswahl passender KI-Modelle
Die komplexen Fähigkeiten basieren neben der grundlegenden KI-Architektur auf die Methoden und deren Kombination. Hier sind einige wichtige Grundlagen aufgeführt:
Maschinelles Lernen (ML) und Deep Learning (DL): Diese beiden Bereiche sind eng mit kognitiven Fähigkeiten verbunden. ML ermöglicht es Systemen, aus Daten zu lernen, ohne explizit programmiert zu werden, während DL mithilfe von künstlichen neuronalen Netzen komplexe Muster in Daten erkennen kann. Diese Fähigkeiten sind essenziell für viele kognitive Aufgaben.
Natural Language Processing (NLP): Die Verarbeitung natürlicher Sprache ist ein wichtiger Aspekt kognitiver KI, der sich mit dem Verstehen und Generieren von menschlicher Sprache befasst.
Transformer-Modelle: Spezielle DL-Architektur, die auf dem “Attention”-Mechanismus basiert und besonders gut für NLP geeignet ist.
Gradient Boosting: eine Machine-Learning-Technik, die für Regressions- und Klassifikationsprobleme verwendet wird. Sie gehört zur Familie der Boosting-Algorithmen, die darauf abzielen, schwache Lernmodelle (meist Entscheidungsbäume) zu einem starken Lernmodell zu kombinieren.
- Datenmenge: Deep Learning benötigt in der Regel sehr große Datenmengen, um gut zu funktionieren. Gradient Boosting kann auch mit kleineren Datensätzen gute Ergebnisse erzielen.
- Rechenaufwand: Deep Learning erfordert oft erhebliche Rechenressourcen, insbesondere für komplexe Architekturen. Gradient Boosting ist im Allgemeinen weniger rechenintensiv.
- Interpretierbarkeit: Gradient Boosting ist im Vergleich zu Deep Learning-Modellen besser interpretierbar, da die Bedeutung der Features leichter analysiert werden kann.
Im Gegensatz zu Bagging-Methoden wie Random Forest, bei denen Modelle parallel trainiert werden, funktioniert Boosting sequentiell. Gradient Boosting baut iterativ ein Ensemble von Entscheidungsbäumen auf, wobei jeder neue Baum versucht, die Fehler (Residuen) der vorherigen Bäume zu korrigieren.
Random Forest: trainiert mehrere Entscheidungsbäume parallel auf verschiedenen Teilmengen der Daten und mit zufälligen Teilmengen der Features. Gradient Boosting trainiert Bäume sequentiell, wobei jeder Baum die Fehler der vorherigen korrigiert.
- Fehlerkorrektur: Random Forest reduziert die Varianz durch Mittelung der Vorhersagen der einzelnen Bäume. Gradient Boosting konzentriert sich auf die Reduzierung der Bias, indem es die Residuen der vorherigen Bäume modelliert.
- Robustheit: Random Forest ist im Allgemeinen robuster gegenüber Overfitting und Ausreißern. Gradient Boosting kann anfälliger für Overfitting sein, erfordert aber oft eine feinere Abstimmung der Parameter.
- Leistung: In vielen Fällen kann Gradient Boosting eine höhere Genauigkeit als Random Forest erzielen, insbesondere bei komplexen Datensätzen.
AdaBoost: (Adaptive Boosting) gewichtet die Trainingsinstanzen, wobei falsch klassifizierte Instanzen stärker gewichtet werden, um die nachfolgenden Bäume auf diese schwierigen Fälle zu konzentrieren. Gradient Boosting verwendet den Gradienten der Verlustfunktion, um die Fehler zu minimieren.
- Fehlerkorrektur: AdaBoost konzentriert sich auf die Korrektur von Fehlklassifikationen, während Gradient Boosting allgemeiner die Residuen minimiert.
- Robustheit: AdaBoost kann empfindlich auf Ausreißer reagieren. Gradient Boosting ist im Allgemeinen robuster.
Lineare Regression/Logistische Regression: sind lineare Modelle, die eine lineare Beziehung zwischen den Features und dem Zielwert annehmen. Gradient Boosting kann nicht-lineare Beziehungen durch die Verwendung von Entscheidungsbäumen modellieren.
- Anwendbarkeit: Lineare/Logistische Regressionen sind gut geeignet für einfache Datensätze mit linearen Beziehungen. Gradient Boosting ist besser für komplexe Datensätze mit nicht-linearen Beziehungen geeignet.
Ein Beispiel für unterstützende Werkzeuge
- Explainable AI (XAI): XAI sorgt für Transparenz, indem es Entscheidungen von KI-Agenten erklärbar macht. Dies stärkt das Vertrauen und hilft, Fehler oder Bias zu erkennen. Mehr Infos von IBM
Skalierung am Beispiel von Language Model (LM)
Mit einem erweiterten Kontextfenster (“Context Windows”) können KI-Agenten umfangreiche Informationen berücksichtigen und bessere Entscheidungen treffen. Dadurch würde beispielsweise ein Reiseagent historische Preisdaten, Wettertrends und ggf. weitere Analysen einbeziehen können. Mehr Infos von IBM
So verfügt Mistral Large 2 über 128K-Kontextfenster und unterstützt dadurch viele Sprachen bzw. Übersetzungen wie Englisch, Französisch, Deutsch und sogar Chinesisch, Hindi und Koreanisch. Doch auch Programmiersprachen und entsprechende Entwicklungskenntnisse werden durch KI untersützt – am beispiel von Mistral sind er über 80 Programmiersprachen. Quelle: Link zur Webseite Mistral AI
Um die passende Lösung für jede Anwendung zu finden, ist es wichtig, die richtige Skalierung zu wählen. Gerade im Bereich NLP ist eine sehr gute Skalierung möglich, um die Rechenleistung anzupassen und damit die Kapazitäten möglichst effizient einzusetzen. LMs nutzen NLP-Techniken, um Texte zu analysieren, zu interpretieren und zu generieren. Dazu gehören:
- Tokenisierung: Zerlegung von Text in einzelne Wörter oder Wortteile (Tokens).
- Stemming/Lemmatisierung: Reduzierung von Wörtern auf ihre Grundform (z.B. “läuft” → “laufen”).
- Part-of-Speech-Tagging (POS-Tagging): Zuweisung von Wortarten (z.B. Nomen, Verb, Adjektiv).
- Named Entity Recognition (NER): Erkennung von Eigennamen (z.B. Personen, Organisationen, Orte).
- Syntaxanalyse: Analyse der grammatikalischen Struktur von Sätzen.
- Semantische Analyse: Analyse der Bedeutung von Wörtern und Sätzen
Hier eine Übersicht der verschiedenen Modelltypen von Super Small Language Model (Super SLM) bis Super Large Language Model (Super LLM) mit Beispielen von Google:
Modell-typ | Beschreibung | Parameter | Rechenleistung | Anwendungsbeispiele (Google) |
Super SLM | Extrem spezialisierte, kleine Modelle für sehr spezifische Aufgaben. | < 1 Million | Sehr gering (z.B. auf Edge-Geräten) | Einfache Klassifizierungsaufgaben, Keyword-Erkennung, einfache Sprachbefehle |
SLM | Kleinere Modelle für Aufgaben mit begrenztem Kontext. | 1 Million – 100 Millionen | Gering (z.B. auf Smartphones) | Textklassifizierung, Sentiment-Analyse, einfache Chatbots |
LLM | Große Modelle für komplexe Aufgaben mit umfangreichem Kontextverständnis. | 100 Millionen – 1 Billion | Mittel bis hoch (z.B. auf Cloud-Servern) | Textgenerierung, Übersetzung, Frage-Antwort-Systeme, komplexe Chatbots (z.B. Google Bard), Textzusammenfassung |
Super LLM | Enorme Modelle mit herausragender Leistungsfähigkeit und der Fähigkeit zu emergentem Verhalten. | 1 Billion+ | Sehr hoch (z.B. auf spezialisierter Hardware) | Sehr komplexe Aufgaben, multimodale Anwendungen, die über Text hinausgehen (z.B. Bild- und Videoanalyse), fortgeschrittene Schlussfolgerungen, komplexe Codegenerierung, wissenschaftliche Forschung (z.B. Google PaLM 2) |
Übersicht KI-generiert mit Google Gemini 2.0 Flash
KI-Ökosystem am Beispiel o3 von Open AI
Das KI System o3 als Bestandteil des Ökosystems von Open AI wurde Ende 2024 zugänglich und kann als Super LLM eingestuft werden. Auch andere Ökosysteme haben zur gleichen Zeit erhebliche Fortschritte zu verzeichnen (insb. Google mit Gemini 2.0) Es basiert auf ein Generatives vortrainiertes Transformer-Modell (“GPT”), was allgemein als “generative AI” bezeichnet wird. Es wurde speziell entwickelt, um bei Aufgaben, die schrittweises logisches Denken erfordern, deutlich besser abzuschneiden als frühere Modelle. Dazu wurden neben den bereits genannten Techniken einige Ergänzungen (insb. Attention Mechanism) sowie Optimierungen hinsichtlich Multimodalität, Architektur und Rechenleistung vorgenommen. Somit kann es besonders gut komplexe Probleme aus verschiedenen Quellen und Medien analysieren sowie verschiedene Lösungsansätze generieren, um diese zur Ausgabe des optimalen Ergebnisses systematisch zu evaluieren. Zur Einhaltung von Ethik bestehen Sicherheitsmechanismen, sodass es eine geeignete Lösung für komplexe Aufgaben von selbstständig agierenden KI Agenten darstellt. Darüber hinaus ist es in Kombination mit kognitiven Methoden und Sensoren bzw. Kameras (Computer Vision) eine mögliche Basis für selbstständiges interagieren von Robotern.
Merkmale von o3:
- Erhöhte „Denkzeit“: Im Gegensatz zu herkömmlichen KI-Modellen nimmt sich o3 mehr Zeit und Rechenleistung, um Aufgaben zu bearbeiten. Dieser Prozess ähnelt dem menschlichen Denken, bei dem man sich Zeit nimmt, um über ein Problem nachzudenken, bevor man eine Antwort gibt.
- Hervorragende Leistung in Benchmarks: o3 hat in verschiedenen anspruchsvollen KI-Benchmarks beeindruckende Ergebnisse erzielt. Besonders hervorzuheben sind die Leistungen in den Bereichen Softwareentwicklung (SWE-bench Verified) und bei der Beantwortung von Fragen aus Naturwissenschaften (GPQA Diamond).
- Fokus auf Sicherheit und Ethik: OpenAI legt großen Wert auf die Sicherheit und ethische Implikationen von o3. Es werden umfangreiche Tests durchgeführt und Forscher eingeladen, das System auf potenzielle Risiken zu überprüfen, bevor es allgemein zugänglich ist oder für Robotik Plattformen eingesetzt wird. Auch für den Bereich kognitiver Robotik ist o3 geeignet, zumal die “Denkzeiten” relativ zu betrachten sind und die Bewegungssteuerung entkoppelt wäre. (So wie Reflexe bzw. die Motorik von Menschen ebenfalls nicht direkt von dem logischen Verstand gesteuert werden.)
- Reasoning Model (Schlussfolgerungsmodell): Ein Sprachmodell, das nicht nur Muster in Texten erkennt und darauf reagiert, sondern auch in der Lage ist, logische Schlüsse zu ziehen, Probleme zu analysieren und komplexe Aufgaben zu bearbeiten..
- Privater Chain of Thought: Im Gegensatz zum “öffentlichen” Chain of Thought, bei dem die Gedankenkette für den Benutzer sichtbar ist, bleibt sie beim “privaten” Ansatz im Inneren des Modells verborgen. Das Modell nutzt Gedankenkette also nur intern, um zu einer Lösung zu gelangen, gibt aber nur das Endergebnis aus. Dadurch ist die Entscheidungsfindung nicht transparent aber die umfangreichen (individuellen) Lösungswege sind nicht für alle Anwender relevant.
- Namensgebung: Wer sich fragt, warum o2 nie veröffentlicht wurde: Bei der Namensgebung ist man von o1 direkt auf o3 übergegangen, um eine Verwechselung mit Telefónica zu vermeiden. (Kleine Anekdote am Rande)
Bestimmte Anwendungen sind auf Leistung angewiesen und rechtfertigen die kostenintensiven Fähigkeiten von o3, wohingegen andere Frameworks preiswerter sind oder bestimmte Integrationsmöglichkeiten bieten. Durch die Einbindung in die Ökosysteme der Anbieter wird jeweils ein anderer Fokus möglich z.B: Datenbanken (Oracle), eCommerce (Alibaba), IoT (AWS), Mobile (Google) oder SaaS bzw. Office Anwendungen (Microsoft). Hier eine Übersicht von ChatGPT 4.0:
1. Alibaba Cloud
- Tools: ModelScope, Elastic AI, …
- Vorteile: E-Commerce mit Vermarktung inkl. Video- und Sprachverarbeitung
- Mobile: AI SDKs und Elastic AI
- Einsatz: Kundendienst und automatisierte Marktplätze, allerdings noch kein Fokus auf KI-Agenten (künftig für Analysen von Kaufverhalten und Automatisierung auf den Marktplätzen)
- Beispiel: Audio und Video AI für Produktvideos [Link zur Webseite Alibaba]
2. Amazon Web Services (AWS)
- Tools: AWS SageMaker, Lambda, Bedrock (u.a. Claude), Polly, AWS Amplify (App-Framework), …
- Vorteile: Skalierbare Infrastruktur, Big Data, IoT Integration, Modelle von Anthropic (Claude etc.)
- Mobile: Cloud-basierte KI mit Optionen für Offline-Nutzung und SageMaker Edge Manager
- Einsatz: Virtuelle Assistenten, Data-Driven Agents.
- Beispiel: Kundenservice mit dem Assistenten Q: [Link zur Webseite AWS]
3. Google Cloud
- Tools: Vertex AI, Dialogflow CX, TensorFlow, ML Kit (KI Funktionsbibliothek für Android/iOS), …
- Vorteile: Starke Multimodalität, Sprachverarbeitung und KI-Training
- Mobile: Optimiert für den mobilen Einsatz inkl. Smarte Brillen (Android und iOS ab TensorFlow Lite)
- Einsatz: Sehr gute Chatbots sowie sprach- und bildgestützte Assistenten
- Beispiel: Gemini für Social Marketing [Link to Website]
- Weiteres Beispiel: Universeller Assistent: [Link zur Webseite des Projekts “Google Astra”]
4. Microsoft Azure
- Tools: Azure AI und Foundry, OpenAI API (Verwendung u.a. von Chat GPT), Bot Framework, …
- Vorteile: KI-Suche, MS Office Integration und plattformübergreifend mit Xamarin/MAUI
- Mobile: Azure Cognitive Services für mobile Apps Android, iOS)
- Einsatz: CRM- und Unternehmensagenten, Dynamics 365 und Office 365
- Beispiel: OpenAI-Modelle e.g. CRM [Link zur Webseite) MS Azure]
5. IBM Cloud
- Tools: Watson Assistant, Watson Discovery, Watsonx.ai Tuning Studio, …
- Vorteile: Branchenlösungen (Healthcare, Banking)
- Mobile: cognitive APIs, Watson developer cloud und low-code Lösungen
- Einsatz: Expertenagenten für Fachanwendungen
- Beispiel: IBM Products mit Partner wie salesforce – AI Service Advisor [Link zur Webseite IBM]
6. Oracle Cloud
- Tools: OCI AI Services, Digital Assistant, …
- Vorteile: Datenbankzentrierte Anwendungen
- Mobile: Fusion AI app
- Einsatz: Datengetriebene Agenten, Reports (finance, projects, controlling etc.)
- Beispiel: Oracle Products im Bereich SCM [Link to Website) Oracle]
7. OpenAI
- Tools: GPT-4, GPT-4 Turbo, DALL·E, Codex, OpenAI API, o1, o3, Whisper, …
- Vorteile: Natürliche Sprachverarbeitung (NLP) und Multimodalität (oben beschrieben), APIs
- Mobile: Integration in mobile Frameworks wie Flutter, React Native, Swift, und Kotlin
- Einsatz: Persönliche Assistenten und Intelligente Chatbots für Kundendienst
- Beispiel: Kreative Anwendungen mit API-Verfügbarkeit für Integration [Link zur Webseite OpenAI]
Hinweise:
Für iOS bietet Core ML von Apple optimale Performance (On-Device-Implementierung für OpenAI erfolgt für Core ML als lokale Anpassung des KI-Modells – gleiches gilt für TensorFlow bei Android; GPT-4 ist nicht offline nutzbar, da es nur Cloud-basiert angeboten wird.)
Dies ist nur eine Auswahl und Stand der Technik im Januar 2025, die mit Unterstützung von KI Suche recherchiert, überprüft und teilweise getestet wurden. Die Informationen sind ohne Gewähr und haben keinen Anspruch auf Vollständigkeit – geben also nur meine persönliche Sicht wieder, was keine Beratung darstellt. Es ist wichtig zu verstehen, dass sich die jeweiligen Modelle rasant weiterentwickeln und sich je nach Update überbieten. Dabei gibt es weitere führende Anbieter wie Mistral aus Frankreich, Llama (Verwendung u.a. im Meta Ökosystem), DeepSeak, um nur einige zu benennen. Allerdings ist die KI-Leistungsfähigkeit nur ein Faktor, der je nach Bedarf mit individueller Gewichtung zur Auswahlentscheidung beitragen kann. Ein aktueller Vergleich sollte also immer durchgeführt werden, wofür ich mindestens eine darauf abgestimmte KI nutzen würde (“Fine Tuning”). Allein ein Blick in den AI Report der Stanford University zeigt, dass bestimmte Informationen als Momentaufnahme zu betrachten sind. Generelle Entwicklungen am Markt sind rückblickend sehr gut wiedergegeben: [Link zur Webseite AI Index Report]
Fazit: KI-Agenten bedeuten neue Level in der Digitalisierung
KI-Agenten haben das Potenzial, Branchen grundlegend zu transformieren, allerdings ist ein verantwortungsbewusster Umgang erforderlich. Ihr Erfolg hängt von guter Zieldefinitionen, hochwertiger Datenbasis sowie einem zum Umfeld passendem KI-Ökosystem mit dem Einsatz entsprechender Modelle ab. Für hochgradig skalierbare, multimodale KI-Agenten sind OpenAI, Google Cloud und AWS besonders geeignet. Für spezifische Branchenanwendungen sind IBM und Oracle führend und die anderen Wettbewerber sind tendenziell Applikationsabhängig (z.B. MS Azure AI bzw. Copilot für Office).
Meiner Meinung nach ist o3 von Open AI bereits im Jahr 2025 als Artificial General Intelligence (AGI) umsetzbar, da aus meiner Sicht eine ausreichende Leistungsfähigkeit in allgemein-gültigen Benchmarks belegt wurde (insb. 87.7% GPQA Diamond und 71.7% SWE-bench). Der Begriff AGI ist nicht mit generativer AI zu verwechseln, sondern zeigt im Vergleich zu bisheriger Artificial Narrow Intelligence (ANI) nicht nur besonders stark entwickelte Einzelfähigkeiten auf, sondern eine Vielzahl von flexibel einsetzbaren Qualifikationen. Oft wird ein Vergleich zu Menschen gezogen, was meines Erachtens jedoch nicht viel aussagt, da klar ist, dass es sich um eine andersartige Intelligenz handelt. Der Bezug zum menschlichen Wesen liefert zwar Erklärungen, führt jedoch auch zu Missverständnissen, was die eigentlichen Fähigkeiten von Maschinen anbelangt. Zudem wird sich eine AGI tendenziell von dem menschlichen und weniger logik-basieren Verständnishorizont zunehmend wieder entfernen, da sich die KI selbstständig weiterentwickeln wird. D.h. bisher haben Menschen der KI bestimmte Anweisungen gegeben, wie diese sich weiterentwickelt – z.B. indem zwei KI-Systeme gegeneinander Schach spielen oder eine Simulation definiert wird. In Zukunft wird die KI optimalere Lernpfade und eigene Methoden ableiten können, die wir erforschen, so lange wie möglich positiv beeinflussen und weiterhin bezeichnen sollten. Außer der Ressourcenknappheit bzw. der Verfügbarkeit von Rechenleistung gibt es bisher keinen fest verankerten Mechanismus, der eine selbstständige Weiterentwicklung von KI aktiv einschränken würde. Zumindest ist mir keiner bekannt. (Wobei es vermutlich nur eine Frage der Zeit ist, bis jeglicher Mechanismus von KI umgangen werden kann.) Wenn es diesen bereits gibt, schreibt gerne ein Kommentar.
Menschliche KI-Experten sowie zusätzliche Tools wie XAI zur Transparenz und die Nutzung großer Context Windows sind entscheidend, um Risiken zu minimieren und das volle Potenzial dieser Technologie auszuschöpfen. Für einen Austausch kann gerne Kontakt aufgenommen werden – oder wie MS Copilot hin und wieder antwortet: “If you need further assistance or have any questions, feel free to ask!”