Cowork macht Claude zugänglicher. Copilot-Deinstallation in Windows 11. Bee fasst Gespräche automatisch. UK macht Deepfake-Bilder strafbar.

Shownotes

Die KI-Nachrichten vom 13.01.2026

--- Diese Episode ist gesponsert von ---

Pickert GmbH
Um mehr über unseren heutigen Sponsor zu erfahren, besuche pickert.de.

---

Möchtest du selbst einen solchen KI-generierten und 100% automatisierten Podcast zu deinem Thema haben? --> Melde dich bei uns, wir machen es möglich.

Hier die Details zu den ausgewählten News des Tages:

Das neue Cowork-Tool von Anthropic bietet Claude Code ohne den Code.
Quelle: https://techcrunch.com/2026/01/12/anthropics-new-cowork-tool-offers-claude-code-without-the-code/
Warum haben wir diesen Artikel ausgewählt?
Lets non-developers automate and edit files via chat: a concrete productivity feature that changes how knowledge workers can manage documents and workflows without writing code.

Windows-Insider-Vorschau: Microsoft testet Copilot-Deinstallation
Quelle: https://www.heise.de/news/Windows-Insider-Vorschau-Microsoft-testet-Copilot-Deinstallation-11137597.html?wt_mc=rss.red.ho.themen.k%C3%BCnstliche+intelligenz.beitrag.beitrag
Warum haben wir diesen Artikel ausgewählt?
If rolled out, users and IT admins will be able to remove the built-in Copilot app from Windows 11 — a direct control change affecting privacy, system configuration and corporate deployments.

Hands-on mit Bee, Amazons neuestes KI-Wearable
Quelle: https://techcrunch.com/2026/01/12/hands-on-with-bee-amazons-latest-ai-wearable/
Warum haben wir diesen Artikel ausgewählt?
A mainstream consumer AI wearable from Amazon shifts where AI lives (on your body), affecting everyday tasks, hands-free interactions and purchase decisions — with privacy and utility implications for users.

UK verschärft ein Gesetz, das Deepfake-Nacktbilder unter Strafe stellt, als Reaktion auf Grok.
Quelle: https://www.theverge.com/news/860881/uk-ai-x-grok-law-criminalizing-deepfake-nudes-ai
Warum haben wir diesen Artikel ausgewählt?
Creates criminal penalties for nonconsensual intimate deepfakes — a major legal change that affects creators, platforms and victims and signals stronger content enforcement and liability expectations.

Hast du Fragen, Kommentare oder Verbesserungsvorschläge? Wir freuen über Feedback an podcast@pickert.de.