Blogbeitrag

KI Highlights Briefing - 2025/03

Generative Künstliche Intelligenz entwickelt sich rasant – und wer hat neben dem Tagesgeschäft schon die Zeit, alles im Blick zu behalten? Für uns gehört es zum Job, Entwicklungen zu verfolgen, zu filtern und einzuordnen, damit wir Sie fundiert beraten können.

Wir dachten uns: Vielleicht ist es für Sie spannend, direkt von unseren Recherchen zu profitieren. Hier finden Sie unsere Highlights der letzten zwei Wochen – handverlesen, kompakt und mit Links für alle, die tiefer einsteigen möchten. Dieses Format ist neu, und wir freuen uns über Ihr Feedback, damit wir es optimal für Sie weiterentwickeln können. Viel Spaß beim Lesen!

Bei den technischen Themen war es in den letzten beiden Wochen eher ruhig, aber Business-seitig gibt es einiges zu berichten.

Business-Highlights

Das Big Picture

Gartner hat die zentralen Technologietrends für 2026 vorgestellt [1] – wie erwartet mit starkem Fokus auf KI: darunter Multiagentensysteme, domänenspezifische Sprachmodelle und KI-Sicherheitsplattformen.

Gleichzeitig investieren die großen Tech-Konzerne allein in diesem Jahr rund 400 Milliarden US-Dollar in KI – mit weiter steigender Tendenz [2]. Die Angst, im Wettlauf um die leistungsfähigsten Modelle zurückzufallen, überwiegt dabei klar die Sorge vor einer neuen Tech-Blase: OpenAI und Anthropic investieren aktuell jeweils etwa das Fünffache ihres Umsatzes. Eine zugespitzte Analyse dieser Dynamik liefern Dwarkesh Patel und Roei Dean in einem lesenswerten Beitrag: [3]

Strom und Chips werden zum Bottleneck

Vor allem der Hunger nach Rechenleistung geht weiter. Nvidia profitiert davon und überschreitet als erste Unternehmen überhaupt einen Marktwert von 5 Billionen USD [4]. Um den Stromhunger der US-Rechenzentren zu stillen, setzen die Konzerne auf Kernenergie. Selbst schon stillgelegte Reaktoren werden wieder hochgefahren und produzieren zum Teil exklusiv für die Tech-Konzerne.

In Deutschland ist die teure Energie ein erhebliches – wenn auch nicht das einzige – Problem und führt zu einem viel zu langsamen Ausbau der Rechenzentren [5][6]: 2030 wird den USA im Vergleich mit Deutschland das 30-fache an Rechenleistung zur Verfügung stehen. Konrad Wolfenstein diskutiert die Konsequenzen in einem interessanten Artikel: [7].

OpenAI schließt Umstrukturierung ab

OpenAI wird aktuell mit rund 500 Milliarden US-Dollar bewertet – etwa ein Zehntel des Marktwerts von Nvidia – und hat seine Umstrukturierung abgeschlossen. Eine gemeinnützige Stiftung soll künftig 26 % der Anteile halten und kontrolliert das Unternehmen, während Microsoft mit rund 27 % weiterhin größter Investor bleibt [8]. Ein Börsengang bereits im kommenden Jahr gilt als realistische Option [9].

Rechte an Trainingsdaten

Trainingsdaten und Urheberrechte - hier gab es eine ganze Reihe von Meldungen, so dass wir dem Thema diesmal ein eigenes Kapitel widmen:

Vorschläge der Rundfunkkommission zum Schutz von Rechteinhabern

Die Rundfunkkommission der Länder plant einen neuen Staatsvertrag zur Regulierung von KI-Systemen [6]. Ziel ist eine Balance zwischen Innovationsförderung und Schutz journalistischer Inhalte. Zentrale Punkte in einer Diskussionsvorlage sind:

- Vergütungsanspruch für Rechteinhaber bei der Nutzung urheberrechtlich geschützter Werke fürs KI-Training und Rechteinhaber erhalten zudem ein aktives Widerspruchsrecht gegen die Nutzung ihrer Inhalte.

- KI-Anbieter sollen offenlegen, welche Werke sie verwenden, und die Transparenz- sowie Kennzeichnungspflichten für KI-Crawler und Bots werden verschärft.

- Betreiber von Chatbots werden zur Quellenangabe, Verlinkung und Plausibilitätsprüfung verpflichtet. Journalistischer Content soll gegenüber KI-generierten Inhalten sichtbar bleiben.

- Weitere Maßnahmen sind Schutz vor Manipulation (Social Bots, Fake Accounts), erweiterte Medienaufsicht und neue Straftatbestände wie Doxxing (Verbreiten persönlicher Daten einer Person ohne deren Zustimmung) und Politiker-Beleidigung.

Management von Persönlichkeitsrechtem in YouTube und Sora 2

YouTube bietet Creators im Partnerprogramm ein neues KI-Feature namens „Likeness Detection“, das die Plattform nach Deepfakes durchsucht, die das Gesicht eines Creators verwenden [10]. Nach Identitätsprüfung können Nutzer verdächtige Videos in YouTube Studio einsehen und Löschanfragen stellen. Die Funktion befindet sich noch im Rollout. YouTube setzt das Tool zunächst bei prominenten Nutzern ein, um Deepfake-Missbrauch großflächig einzudämmen. Zusätzlich müssen KI-generierte Inhalte auf YouTube seit März 2024 klar als solche gekennzeichnet werden.

Der Schauspieler Bryan Cranston (Breaking Bad) ist dagegen vorgegangen, dass er in OpenAIs Videgenerator Sora 2 ohne seine Zustimmung digital nachgebildet wurde - inklusive Stimme und Aussehen. Als Reaktion hat OpenAI seine Schutzmaßnahmen verschärft und ein Opt-in-Protokoll eingeführt: Prominente müssen nun ausdrücklich zustimmen [11, 12]. Genauso werden auch die Rechte verstorbener Persönlichkeiten geschützt: Nachlassverwalter können – wie aktuell im Fall Martin Luther King – die Verwendung von Stimme und Bild auf Sora 2 sperren lassen. OpenAI unterstützt außerdem das US-Gesetz „NO FAKES Act“, das KI-Repliken echter Personen ohne Einwilligung verbieten will.

Rechteinhaber klagen gegen KI-Firmen

Reddit hat eine Klage gegen Perplexity und mehrere Daten-Scraping-Firmen eingereicht, weil diese angeblich urheberrechtlich geschützten Reddit-Inhalte ohne Zustimmung sammeln, um damit die KI zu trainieren [13]. Reddit konnte den Vorwurf nach eigenen Angaben mit einem gezielten Test belegen: Ein spezieller Post, der nur von Google gecrawlt werden konnte, tauchte innerhalb weniger Stunden im Antwortsystem von Perplexity auf. Während Reddit bereits Lizenzvereinbarungen mit Unternehmen wie OpenAI und Google abgeschlossen hat, wirft es Perplexity vor, Daten illegal über Drittanbieter zu beziehen, anstatt rechtmäßig zu zahlen.

In einem weiteren Verfahren haben Buchautoren vor Gericht drei zentrale Punkte gegen OpenAI durchgesetzt [14]: Beanstandet werden das KI-Training mit urheberrechtlich geschützten Büchern, das massenhafte Laden von Werken aus Schattenbibliotheken und die teils starke Ähnlichkeit der ChatGPT-Antworten zu Originaltexten. Für jede nachgewiesene Verletzung drohen Schadensersatzforderungen bis zu 150.000 US-Dollar. Schon zuvor hatte der Anbieter Anthropic 1,5 Milliarden US-Dollar zur Beilegung eines ähnlichen Falls gezahlt. In diese Zusammenhang ist vielleicht auch folgende Meldung interessant: Eine aktuelle Studie zeigt, dass KI-Modelle die Schreibstile berühmter Autoren realistisch nachahmen können, wenn sie nur mit zwei Büchern des jeweiligen Autors trainiert werden [15].

Software-Highlights

OpenAI führt seinen Atlas-Browser ein – mit Sicherheitslücken

Nachdem Perplexitys Browser Comet bereits seit einiger Zeit verfügbar ist, hat OpenAI nun mit dem Atlas-Browser nachgezogen [16][17]. Dieser befindet sich aber noch sichtbar in einem frühen Stadium und kann bislang nicht überzeugen. Kritisiert werden vor allem Sicherheitsprobleme [18]: Forschern ist es beispielsweise gelungen, eine kritische Schwachstelle auszunutzen, über die Angreifer schädliche Befehle dauerhaft in den KI-Speicher injizieren können – mit der potenziellen Folge, Malware einzuschleusen. Besonders brisant: Die Attacke betrifft nicht nur die aktuelle Sitzung, sondern kann auch die persistenten Erinnerungen von ChatGPT kompromittieren und somit geräte- und sitzungsübergreifend ein Angriffsrisiko darstellen [19].

Weitere KI-Browser: Microsoft Edge und Opera Neon

Microsoft hat nur zwei Tage nach OpenAIs Atlas-Browser eine neue, fast identische AI-Browserfunktion ("Copilot Mode") für Edge vorgestellt [20]: Der Copilot kann offene Tabs analysieren, Inhalte zusammenfassen, vergleichen und Aktionen wie Hotelbuchungen oder Formularausfüllungen übernehmen. Optisch und funktional ähneln sich beide Produkte stark; der Hauptunterschied liegt laut TechCrunch aktuell in den zugrunde liegenden KI-Modellen, nicht im Konzept oder der Integration [21].

Auch Opera Neon bekommt mit ODRA einen neuen Deep Research Agent, der komplexe Fragen zerlegt, parallel mit mehreren KI-Modellen recherchiert und präzise zusammenfasst. Dabei sollen sich künftig mehrere spezialisierte Agenten zentral wie ein intelligentes Orchester steuern – ohne dass Nutzer einzelne Agenten gezielt auswählen müssen. Neon befindet sich aktuell in einer Invite-only-Phase [22, 23].

Prompt-Injection in KI-Browsern

Sicherheitsforscher zeigen, dass KI-Browser – ebenso wie RAG-Systeme mit Webrecherche – systemisch anfällig für indirekte Prompt-Injection-Angriffe sind [24]. Angreifer können unsichtbare Texte oder Anweisungen in Website-Bildern oder Seiteninhalten verstecken, die beim Navigieren oder Erstellen von Screenshots automatisch an die KI weitergereicht und dort als Befehle interpretiert werden. Dadurch entstehen erhebliche Sicherheits- und Datenschutzrisiken – besonders dann, wenn der KI-Browser oder das RAG-System mit erweiterten Berechtigungen arbeitet oder Zugriff auf vertrauliche Daten hat. Zwar existieren erste Schutzmechanismen, doch Experten warnen: Die Schwachstelle ist ein grundlegendes Designproblem aller aktuellen AI-Browser.

Trend zu Finetuning-Services

Ein neuer Service-Trend zeichnet sich ab: KI-Unternehmen bieten ihren Enterprise-Kunden zunehmend an, Modelle gezielt auf unternehmensspezifische Daten und Anforderungen zu finetunen.

Ein Beispiel hierfür ist Adobe Firefly Foundry [25] – eine Plattform, die Unternehmen ermöglicht, individuelle KI-Modelle auf Basis ihrer eigenen, markeneigenen Inhalte für Bild, Video, Audio, Vektor und 3D zu erstellen. Diese „on-brand“-Modelle werden von Adobe-Experten gemeinsam mit den Kunden entwickelt, um eine konsistente und markenkonforme Content-Produktion sicherzustellen.

Auch Runway hat mit „Model Fine-tuning“ einen ähnlichen Service vorgestellt: Nutzer können generative Videomodelle gezielt auf ihre eigenen Anwendungsfälle anpassen [26]. Das Feature befindet sich derzeit in einer Pilotphase und ist zunächst für ausgewählte Partner verfügbar.

OpenAI denkt über personalisierte Werbung in ChatGPT nach

OpenAI prüft, die Memory-Funktion von ChatGPT künftig auch für personalisierte Werbung zu nutzen, indem persönliche Informationen aus Nutzer-Chats für gezielte Produktempfehlungen herangezogen werden. Gleichzeitig wächst bei OpenAI intern der Druck, die Nutzung und Bindung der Anwender deutlich zu steigern: Selbst Forschungsteams sollen sich laut internen Berichten zunehmend an Engagement-Metriken orientieren, um die Modelle gezielt auf häufigere und intensivere Anwendung auszurichten und so das Umsatzwachstum voranzutreiben [27].

Sonstiges

Auf der Adobe MAX 2025 [28] wurden zahlreiche neue KI-Funktionen vorgestellt – darunter neue Firefly-Modelle für generative Audio- und Videoinhalte, ein KI-Assistent für Adobe Express und Photoshop sowie experimentelle Werkzeuge wie „Frame Forward“, das Videoänderungen automatisch auf alle Frames überträgt. Neu ist zudem „Project Moonlight“, ein zentraler KI-Kreativagent für die Planung und Umsetzung von Social-Media-Kampagnen [29].

Dass es auch ohne gerichtliche Auseinandersetzung geht, zeigen die Universal Music Group und Stability AI [30]: Die Unternehmen wollen gemeinsam professionelle KI-Musiktools entwickeln, die verantwortungsvoll trainiert sein sollen und die Interessen von Künstlern sowie Rechteinhabern schützen. Auch OpenAI arbeitet an einem neuen Musiktool [31].

KI-Modell-Highlights

Bei den großen kommerziellen Modellen gab es wenig Neues. Dennoch haben wir drei innovative Modelle auf unserer Highlights-Liste:

Deep Seek-OCR

DeepSeek-OCR ist ein neuartiges KI-Modell, das lange Textkontexte als Bilddaten komprimiert und dadurch besonders effizient für große Sprachmodelle nutzbar macht. Die Technologie ermöglicht die schnelle Analyse komplexer Dokumente, einschließlich Tabellen und Formeln, und übertrifft etablierte OCR-Lösungen in puncto Geschwindigkeit. Da der Ansatz noch experimentell ist, besteht jedoch weiterer Forschungsbedarf bei der robusten Integration in klassische LLM-Architekturen [32].

Sicherheitsfilter von OpenAI

OpenAI hat mit gpt-oss-safeguard [33] eine neue Generation von Open-Source-Sicherheitsmodellen vorgestellt, die gezielt verhindern sollen, dass KI-Systeme problematische oder unerwünschte Inhalte erzeugen. Unternehmen können eigene Schutzrichtlinien definieren und flexibel an ihre Anforderungen und Werte anpassen. Die Modelle interpretieren diese Vorgaben selbstständig und treffen nachvollziehbare Entscheidungen inklusive Begründung, warum Inhalte zugelassen oder abgelehnt werden.

gpt-oss-safeguard ist als offene Technologie-Demonstration konzipiert. Die Modelle sind bereits einsatzfähig, befinden sich jedoch noch in einer frühen Entwicklungsphase. Sie stehen frei zur Verfügung und lassen sich einfach in bestehende Systeme integrieren.

Ring-1T

Ant Group, eine Tochtergesellschaft von Alibaba, hat mit Ring-1T ein neues KI-Modell vorgestellt, das als erster offener Open-Source-Reasoning-Transformer mit einer Billion Parametern gilt [34]. Das Modell ist speziell für mathematische, logische und wissenschaftliche Aufgaben optimiert und kann lange Kontextfenster von bis zu 128.000 Tokens verarbeiten. Um die enorme Komplexität zu bewältigen, entwickelte Ant Group drei neue Trainingsmethoden (IcePop, C3PO++ und ASystem), die zentrale Engpässe im Reinforcement Learning bei sehr großen Modellen beseitigen. Ring-1T erreicht in Benchmarks Spitzenwerte, liegt nahe an OpenAIs GPT-5 und übertrifft andere vergleichbare Modelle bei Programmieraufgaben. Diese Innovation unterstreicht die Fortschritte chinesischer Unternehmen im KI-Bereich und zeigt neue Wege für effizientes Training und Skalierung großer multimodaler Modelle auf.

Entwickler-Highlights

Vibe Coding in Google AI Studio und Mistral AI Studio

Google springt auch auf den Vibe Coding Trend und ermöglicht nun direkt in AI Studio [35] die schnelle App-Entwicklung per Prompt – die Plattform übernimmt Modell- und API-Verknüpfung automatisch. Die Lösung richtet sich eher an weniger erfahrene Nutzer.

Aus europäischer Perspektive besonders interessant: Auch Mistral steigt mit dem Mistral AI Studio in den Trend ein [36]. Im Unterschied zur Google-Lösung richtet sich die Plattform eher an erfahrene Entwickler und soll helfen, Prototypen schneller in die Produktion zu bringen. Mistral bietet dafür Tools für Anpassung, Monitoring und Deployment. Zwar betont Mistral Sicherheitsstandards und Flexibilität, doch bleibt die Lösung stark an das eigene Ökosystem und die Mistral-Infrastruktur gebunden [37].

PyTorch-native Agenten-Bibliotheken von Meta

Meta hat einen quellenoffenen, PyTorch-nativen Agentic-Stack vorgestellt [38], der den gesamten Lebenszyklus von KI-Agenten abdeckt – von der Kernel-Entwicklung über skalierbare Kommunikation bis hin zu Reinforcement Learning in Clustern und auf Edge-Geräten. Im Gegensatz zu anderen Frameworks, die meist workflow-basiert und modellagnostisch arbeiten, setzt Meta auf eine tiefe Integration in PyTorch sowie umfassende Infrastruktur- und Hardware-Unterstützung.

AgentHQ: Die Kommandozentrale für Agenten in GitHub

GitHub hat mit Agent HQ [39] eine offene Plattform für Coding-Agents vorgestellt. Darüber können Entwickler KI-Agenten verschiedener Anbieter – etwa Anthropic, OpenAI, Google oder Cognition – direkt im GitHub-Workflow orchestrieren und verwalten. Ein Admin-Panel namens Mission Control ermöglicht die zentrale Steuerung und Überwachung der Agenten und lässt sich auch in VS Code integrieren. Neue Features für Code-Reviews und Sicherheits-Governance sollen für eine tiefe Integration und bessere Kontrolle sorgen. Agent HQ ist als Teil des bezahlten Copilot-Abos verfügbar.

Und noch ein Agenten-Highlight: Amazon Bedrock AgentCore, angekündigt beim AWS Summit im Juli [40], ist nun allgemein verfügbar [41].

Referenzen

[1] https://www.gartner.com/en/newsroom/press-releases/2025-10-20-gartner-identifies-the-top-strategic-technology-trends-for-2026

[2] https://www.wsj.com/tech/ai/big-tech-is-spending-more-than-ever-on-ai-and-its-still-not-enough-f2398cfe

[3] https://www.dwarkesh.com/p/thoughts-on-the-ai-buildout

[4] https://www.cnbc.com/2025/10/29/nvidia-on-track-to-hit-historic-5-trillion-valuation-amid-ai-rally.html

[5] https://www.handelsblatt.com/technik/it-internet/zukunftstechnologie-rechenzentren-fuer-ki-deutschland-droht-investitionsluecke/100157444.html

[6] https://www.heise.de/news/Laender-wollen-Urheberpauschale-fuer-KI-10868956.html

[7] https://xpert.digital/wenn-die-stromleitung-zum-nadeloehr-der-digitalen-zukunft-wird/

[8] https://www.handelsblatt.com/technik/ki/ki-openai-stellt-sich-neu-auf-microsoft-bleibt-groesster-anteilseigner/100169025.html

[9] https://www.handelsblatt.com/technik/ki/kuenstliche-intelligenz-openai-boersengang-koennte-eine-billion-dollar-schwer-werden/100169604.html

[10] https://www.theverge.com/news/803818/youtube-ai-likeness-detection-deepfake

[11] https://www.theguardian.com/technology/2025/oct/21/bryan-cranston-sora-2-openai

[12] https://www.reuters.com/business/media-telecom/openai-boost-content-owners-control-sora-ai-video-app-plans-monetization-2025-10-04/

[13] https://www.theverge.com/news/804660/reddit-suing-perplexity-data-scrapers-ai-lawsuit

[14] https://www.hollywoodreporter.com/business/business-news/george-rr-martin-openai-court-legal-1236413461/

[15] https://the-decoder.com/ai-models-can-mimic-famous-authors-writing-styles-using-just-two-books-for-training/

[16] https://chatgpt.com/de-DE/atlas/

[17] https://openai.com/de-DE/index/introducing-chatgpt-atlas/

[18] https://thehackernews.com/2025/10/new-chatgpt-atlas-browser-exploit-lets.html

[19] https://www.csoonline.com/article/4081836/atlas-browser-exploit-ermoglicht-angriff-auf-chatgpt-speicher.html

[20] https://blogs.windows.com/msedgedev/2025/10/23/meet-copilot-mode-in-edge-your-ai-browser/

[21] https://techcrunch.com/2025/10/23/two-days-after-openais-atlas-microsoft-launches-a-nearly-identical-ai-browser/

[22] https://operaneon.com

[23] https://betanews.com/2025/10/21/opera-brings-deep-research-capabilities-to-its-neon-ai-browser/?utm_source=aibreakfast.beehiiv.com&utm_medium=newsletter&utm_campaign=openai-releases-atlas-browser&_bhlid=019e487471a226f162dbf4b6c1e59102fa65a939

[24] https://brave.com/blog/unseeable-prompt-injections/

[25] https://news.adobe.com/news/2025/10/adobe-max-2025-firefly-foundry

[26] https://runwayml.com/product/model-fine-tuning

[27] https://the-decoder.de/chatgpts-memory-funktion-koennte-zur-werbefalle-werden/

[28] https://www.adobe.com/max.html

[29] https://www.theverge.com/news/807867/adobe-max-2025-all-the-latest-announcements

[30] https://stability.ai/news/universal-music-group-and-stability-ai-announce-strategic-alliance

[31] https://techcrunch.com/2025/10/25/openai-reportedly-developing-new-generative-music-tool/

[32] https://www.technologyreview.com/2025/10/29/1126932/deepseek-ocr-visual-compression/

[33] https://openai.com/index/introducing-gpt-oss-safeguard/

[34] https://venturebeat.com/ai/inside-ring-1t-ant-engineers-solve-reinforcement-learning-bottlenecks-at

[35] https://blog.google/technology/developers/introducing-vibe-coding-in-google-ai-studio/

[36] https://mistral.ai/news/ai-studio

[37] https://venturebeat.com/ai/mistral-launches-its-own-ai-studio-for-quick-development-with-its-european

[38] https://ai.meta.com/blog/introducing-pytorch-native-agentic-stack/

[39] https://github.blog/news-insights/company-news/welcome-home-agents/

[40] https://www.aboutamazon.com/news/aws/aws-summit-agentic-ai-innovations-2025

[41] https://aws.amazon.com/de/about-aws/whats-new/2025/10/amazon-bedrock-agentcore-available/