Kunstliche Intelligenz & Machine Learning
Microsoft rüstet Windows 11 mit Copilot Task zum autonomen Agenten auf. Das KI-System soll im Hintergrund E-Mails organisieren, Preise überwachen und sogar Reisen buchen – doch Datenschützer sind alarmiert.
Die Trump-Administration stuft Anthropic als nationales Sicherheitsrisiko ein. OpenAI springt in die Bresche – und macht Zugeständnisse bei Massenüberwachung und autonomen Waffensystemen.
Sam Altman kritisiert die Einstufung von Anthropic als Sicherheitsrisiko durch das Pentagon als „extrem beängstigenden Präzedenzfall“. OpenAI beschleunigte offenbar ein Abkommen, um die Lage zu entschärfen.
Jack Dorseys Fintech-Riese Block plant massiven Stellenabbau. Die Begründung ist neu: Künstliche Intelligenz mache die Arbeitsplätze überflüssig. Ein alarmierendes Signal für White-Collar-Arbeiter weltweit.
Wie Techmeme berichtet, setzen Militäreinheiten weltweit auf KI-Systeme von Anthropic. Die Nutzung von Claude durch das US Central Command wirft neue Fragen zu Ethik und Sicherheit auf.
In überraschender Einigkeit setzt sich der ChatGPT-Mutterkonzern gegen die Einstufung seines Konkurrenten als nationales Sicherheitsrisiko ein. Die Branche fürchtet einen politischen Präzedenzfall.
Reiner Pope, ehemaliger Google-TPU-Architekt und CEO von MatX, erklärt im Techmeme-Interview, warum aktuelle AI-Chips an ihre Grenzen stoßen und wie spezialisierte Hardware die Zukunft bestimmt.
Der Konflikt zwischen Anthropic und dem US-Verteidigungsministerium eskaliert zu einem fundamentalen Schlagabtausch über die Zukunft der KI in der nationalen Sicherheitspolitik.
Ein harmloser Museumsbesuch löst eine fundamentale Debatte aus: Wie viel KI-Bearbeitung ist noch akzeptabel, bevor eine Erinnerung zur Fälschung wird?
Dario Amodei positioniert Anthropic als „patriotische Amerikaner“ und warnt davor, dass KI-Entwicklung dem Gesetz zuvorkommt. Wie das Unternehmen nationale Sicherheit mit ethischen Werten verbinden will.
Nach 24 Jahren Wachstum droht Indiens Software-Export erstmals Rückgänge durch KI. Doch der deflationäre Effekt entwickelt sich langsamer als erwartet.
Ein Vergleichstest von über 12 KI-Detektionswerkzeugen offenbart erhebliche Leistungsunterschiede. Während einfache Manipulationen noch erkannt werden, versagen komplexe Bilder. Videos bleiben die größte Herausforderung.
OpenAI hat die bislang größte private Finanzierungsrunde der Geschichte abgeschlossen. Tech-Giganten investieren 110 Milliarden Dollar und sichern sich strategische Partnerschaften.
Der KI-Entwickler Anthropic gerät mit dem Pentagon aneinander. Der Konflikt um militärische KI-Nutzung wirft fundamentale Fragen für Partner wie Amazon, Google, Nvidia und Palantir auf.
Laut Techmeme will Nvidia auf der GTC im März einen neuen Chip für KI-Inference vorstellen. Das System nutzt angeblich Designs von Groq – und OpenAI gehört bereits zu den Kunden.
DeepSeek plant den Release seines multimodalen Modells V4. Besonders brisant: Die Optimierung erfolgte für chinesische Hardware – ein strategischer Schritt weg vom NVIDIA-Ökosystem.
Nach dem Boykott durch die Trump-Regierung und der Einstufung als Lieferkettenrisiko fordert Anthropic nun juristische Klärung. Das Unternehmen will die Designation gerichtlich prüfen lassen.
Das US-Verteidigungsministerium lässt OpenAI bei Sicherheitsfragen offenbar freie Hand. Ein internes Memo von Sam Altman wirft neue Fragen zur KI-Regulierung auf.
Das US-Verteidigungsministerium hat offenbar die strengen Sicherheitsauflagen von OpenAI akzeptiert, um deren KI-Technologie in geheimen Militärprojekten zu nutzen – ein Präzedenzfall für die Branche.
Verteidigungsminister Pete Hegseth hat das Pentagon angewiesen, Anthropic als Lieferkettenrisiko einzustufen. Militärauftragnehmer dürfen nicht mehr mit dem KI-Unternehmen zusammenarbeiten.
Anthropic forscht zur "Model Welfare" – doch die Frage, ob Claude lebendig oder bewusst ist, beantwortet das Unternehmen nur vage. Ein Interview offenbart die komplexe Position des KI-Sicherheitspioniers.
Der US-Präsident bezeichnet Anthropic als „radikal linke, woke Firma“ und ordnet den sofortigen Stopp aller KI-Produkte in US-Behörden an. Der Angriff auf den Sicherheits-Pionier eskaliert den politischen Tech-Krieg.
Samsung demonstriert auf der Keynote neue KI-Features für das Galaxy S26 Ultra. Doch die Möglichkeit, nachträglich Personen in Fotos einzufügen, wirft ethische Fragen auf. Droht eine neue Welle von Deepfakes?
Das geplante Amazon-OpenAI-Bündnis könnte KI-Agenten auf AWS mit einem entscheidenden Upgrade versehen: einem Gedächtnis für laufende Projekte.
Laut Techmeme soll Amazon für Beteiligungen an OpenAI deutlich höhere Preise zahlen als frühe Investoren. Das Geschäft offenbart die strategischen Nachteile von Spätinvestoren im Cloud-KI-Markt.
Beschäftigte bei Amazon, Google, Microsoft und OpenAI wollen, dass ihre Arbeitgeber sensible KI-Technologien nicht an das US-Militär liefern. Anthropic fungiert dabei als ethisches Vorbild.
GitHub zeigt einen praktischen Workflow für die Entwicklung mit KI-Unterstützung direkt im Terminal – von der Ideenfindung bis zur fertigen Review.
Google DeepMind stellt Nano Banana 2 vor – ein KI-Bildmodell, das die Qualität der Pro-Version mit blitzschneller Verarbeitung kombiniert.
Augment Code stellt Intent vor – eine macOS-App, die Entwicklung auf die Ebene von Absichten heben soll. Spezialisierte Agents statt Chaos, Living Specs statt veraltete Docs.
Eine neue macOS-App verspricht, Softwareentwicklung auf eine höhere Abstraktionsebene zu heben. Statt Code schreiben Entwickler künftig ihre Intent auf – und Agenten setzen sie um.
Während die Tech-Branche Milliarden in AI-Chips investiert, übersieht sie ein profaneres Problem: Die Infrastruktur zwischen Entwicklung und Production ist ein Chaos.
Während die Tech-Industrie Milliarden in AI-Chips investiert, ignoriert sie ein fundamentales Problem: Die Infrastruktur zwischen Entwicklung und Production ist ein Chaos.
OpenAI-Chef Sam Altman wehrt sich gegen Kritik am Stromverbrauch von KI-Systemen und zieht einen provokanten Vergleich zur menschlichen Entwicklung.
Auf Indiens AI Summit wird deutlich: Die USA und ihre Tech-Konzerne ignorieren Neu-Delhis Forderungen nach internationaler KI-Governance.
OpenAI-Chef Sam Altman erklärt Elon Musks Vision von Rechenzentren im Orbit für "lächerlich" und unrealistisch – zumindest für dieses Jahrzehnt.
Anthropics Daten zeigen: Während 50% der KI-Agent-Nutzung auf Software-Engineering entfällt, ignorieren Gründer völlig unterschätzte Märkte in Recht, Medizin und Finance.
Anthropic stellt Claude 3 Haiku vor – ein Sprachmodell, das nicht mit Intelligenz, sondern mit Geschwindigkeit und Kosteneffizienz punkten soll.
Anthropic nimmt aktiv an der KI-Regulierung teil und setzt intern auf strikte Sicherheitsprotokolle. Gründer Dario Amodei ist regelmäßiger Zeuge bei US-Senatsanhörungen.
Der Claude-Entwickler Anthropic hat in einer Serie-G-Finanzierungsrunde 30 Milliarden Dollar eingesammelt. Das Unternehmen ist damit eines der wertvollsten KI-Startups der Welt.
The Morpheus Tutorials hat chinesische Large Language Models unter die Lupe genommen. Wie schneiden sie gegen westliche Alternativen ab?
Mit NanoClaw und verwandten "Claw"-Systemen entsteht eine neue Schicht oberhalb von KI-Agenten, die auch auf privater Hardware lauffähig ist.
Eine Agentur mit Millionenbudget wird von Metas automatisierten Systemen blockiert – ohne Grund, ohne Ansprechpartner, ohne Ausweg.
Ein Jahr nach dem öffentlichen Launch hat sich Claude Code als eines der wichtigsten KI-Coding-Tools etabliert und Anthropic eine Führungsposition gesichert.
Ein Bug in Anthropics Claude Code 2.1.1 sorgt für massiven Token-Verbrauch. Entwickler berichten, dass ihre Rate Limits bis zu viermal schneller aufgebraucht werden als in früheren Versionen.
Künstler und Kreative kritisieren Pinterest scharf: KI-generierte Bilder, fehlerhafte Moderation und aufgezwungene KI-Features machen die Plattform zunehmend unbrauchbar.
Googles neues Flaggschiff-Modell glänzt in Benchmarks – doch warum widersprechen sich alle Einschätzungen? Die Antwort liegt im fundamentalen Wandel des KI-Trainings.
Googles neues Flaggschiff-Modell glänzt in Benchmarks – doch die Aussagekraft solcher Tests bröckelt. Warum wir in eine neue Ära der KI-Bewertung eintreten.
Halluzinierte Zitate, wertlose Bug-Reports und automatisierte Pull Requests: Die KI-Welle trifft Open-Source-Maintainer mit voller Wucht — und es wird schlimmer.