1. Startseite
  2. Technologie
  3. Künstliche Intelligenz
  4. KI-Briefing: „Alexa, ruf mir ein Taxi“ – Was hinter Amazons KI-Strategie steckt

KI-Briefing„Alexa, ruf mir ein Taxi“ – Was hinter Amazons KI-Strategie steckt

KI zieht ins Wohnzimmer ein, ein schwedisches Start-up bricht Rekorde und die „maximal wahrheitssuchende KI“ von Musk wird der Zensur überführt. Die KI-News der Woche.Larissa Holzki 28.02.2025 - 14:48 Uhr Artikel anhören
Assistentin: Alexa wird klüger – und könnte Amazons Umsätze deutlich steigern. Foto: Michel Becker | Dall-E

Wenn Sie nur wenig Zeit haben, liebe Leserinnen und Leser, dann lassen Sie sich von Alexa ein Taxi bestellen oder den Tisch im Restaurant reservieren. Amazon hat seine Sprachassistentin nämlich im Geheimprojekt „Banyal“ grundüberholt und mit KI aufgepimpt. Jetzt soll Alexa bald in der Lage sein, für Nutzer Aufgaben auszuführen.

Warum das wichtig ist? Künstliche Intelligenz hat das Potenzial, Ihr Leben in Zukunft einfacher zu machen. Vor allem aber könnte KI die kühnsten Träume der Tech-Konzerne realisieren. Denn wenn Sie Ihre Entscheidungen künftig mit der Alexa-KI beraten, redet Amazon buchstäblich mit.

Zoomen wir einmal raus: Im Geschäft mit Konsumenten kämpfen die Technologieriesen seit Jahren darum, die zentrale Technologieplattform unseres Lebens zu werden. Sie wollen, dass wir von dort aus Reisen planen und Hotels buchen, Trends verfolgen und Klamotten shoppen, uns um unsere Vorsorge kümmern und Versicherungen abschließen.

Denn das Plattformgeschäft ist für die großen Tech-Konzerne aus den USA und China attraktiv. Es macht Unternehmen wie Amazon, Apple und Google und ihre chinesischen Pendants Tencent und Alibaba zu sogenannten Gatekeepern: Sie entscheiden nämlich, auf wessen Seiten sie ihre Nutzer weiterleiten. Hotelketten, Händler und Finanzdienstleister zahlen dafür viel Geld. Zum Beispiel, indem sie Werbung schalten.

Mit KI-Assistenten, die zu unseren täglichen Begleitern werden, können die Technologiekonzerne weiter in unser Leben vordringen als mit jeder Plattform zuvor. Das dürfte ihre Funktion als Pförtner des Internets noch verstärken. Deshalb setzen die Konzerne so viel daran, die Chatbots zu bauen, die wir nicht mehr missen wollen.

Zoomen wir wieder rein: Alexa ist seit mehr als zehn Jahren am Markt und hat Millionen von Wohnungen zu Smarthomes gemacht. Doch wer nun seine Lichtschalter per Sprachbefehl bedienen kann, weiß: Auch das smarteste Zuhause ist bis heute eher unterbelichtet. Und genau das soll sich jetzt ändern. So soll Alexa bei einer Verknüpfung mit der Überwachungskamera künftig zum Beispiel Fragen dazu beantworten können, was sich in den vergangenen Tagen vor der Haustür so zugetragen hat.

Amazons Gerätechef Panos Panay: Flüssige Gespräche mit Alexa. Foto: REUTERS

Unser Korrespondent Philipp Alvares hat Amazons Produktvorstellung am Mittwoch in New York verfolgt. Er berichtet, dass Nutzer nun flüssige Gespräche mit Alexa führen und komplexe Bestellungen aufgeben können. Ein großer Fortschritt zu den bisher doch sehr roboterhaften Gesprächen. Und einen Vorteil gegenüber Chatbots wie ChatGPT biete Alexa auch: Sie merke sich Inhalte aus früheren Gesprächen.

Die KI, die das möglich macht, kommt zum Teil von Amazon selbst und zum Teil von Anthropic. Das ist der OpenAI-Rivale, in den Amazon acht Milliarden Dollar gesteckt hat.

Was das nun mit dem Plattformgeschäft zu tun hat? Damit Alexa Ihnen zum Beispiel ein Taxi rufen kann, will Amazon außerdem Apps von Dritten andocken und mit KI-Agenten auf externe Seiten zugreifen.

Wie das Geschäftsmodell genau aussehen soll, erklärte Amazon nicht. Unternehmensvertreter sagten, Partner könnten zum Teil am Umsatz beteiligt werden. Wenn Sie mich fragen: Am Ende zahlt etwa wieder Uber, damit es die Amazon-Kunden kutschieren darf.

Amazon-Werbung: Alexa - überall und jederzeit. Foto: Bloomberg

Ganz ähnliche Geschäftsmodelle und Kooperationen wie die von Amazon und Anthropic bahnen sich übrigens gerade zahlreich an. Apple partnert bei der KI für seine Sprachassistentin Siri mit OpenAI, Tencent will Deepseek in seine Super-App integrieren, und die Telekom, die schon vor einem Jahr ihr App-freies KI-Phone vorgestellt hat, arbeitet mit Perplexity zusammen.

Amazon schien in dem Rennen zuletzt schon fast abgeschlagen. Jetzt will der Konzern mit nützlichen Funktionen statt schillernder Demos aufholen. Doch Amazon hat einen Vorteil, hob Gerätechef Panos Panay am Mittwoch hervor. Alexa kenne ihre Nutzer und deren Zuhause schon. Weil sie wisse, wo das Kinderzimmer sei, könne sie etwa diese Anweisung umsetzen: „Schalte die Musik an, ohne das Baby aufzuwecken!“ Man könnte meinen, da wird Alexa bald smarter als mancher Mitbewohner ...

Was die neue Amazon-KI kostet, auf welchen Geräten sie läuft und wer zuerst Zugriff bekommt, lesen Sie in Philipps Bericht aus New York.

So viel sei an dieser Stelle verraten: Im Vergleich zu OpenAIs neuem Modell GPT 4.5 dürfte die Alexa-KI die finanziell günstigere Option für viele Nutzer sein. Unternehmenschef Sam Altman spricht von einer „Art von Intelligenz, die eine Magie ausstrahlt“, die er noch nie erlebt habe. Sie ist mit 150 Dollar je 150.000 Output-Token - das entspricht gut 80.000 ausgegebenen Wörtern - aber selbst laut dem OpenAI-Chef teuer und kann sonst nicht so viel mehr als die bisherigen Modelle.

Worüber die Szene spricht

Lovable: Entwickler lieben das Team – vielleicht auch wegen solcher Einblicke. Foto: LinkedIn | Anton Osika

Über Lovable, das Start-up, das jede und jeden zum App-Entwickler macht. Europas derzeit wohl am schnellsten wachsende Firma hat diese Woche eine Finanzierungsrunde über 15 Millionen Dollar verkündet. Während sich schon Zehntausende Nutzerinnen und Nutzer in die KI des schwedischen Start-ups verguckt haben, lieben Investoren wohl vor allem seine Zahlen.

Was dahintersteckt?

  • Lovable hat nach eigenen Angaben bereits 30.000 zahlende Kunden.
  • Die jährlich wiederkehrenden Umsätze sollen schon bei 17 Millionen Dollar liegen.
  • Und all das, obwohl Anton Osika und Fabian Hedin die Firma erst vor drei Monaten gegründet haben.

Inzwischen spricht sogar Schwedens Ministerpräsident von Lovable. Bei einer Technologiekonferenz in Stockholm hat Ulf Kristersson die Firma in eine Reihe mit Schwedens größten Technologieerfolgen der vergangenen 20 Jahre gestellt.

Als ich davon hörte, habe ich mir das Manuskript seiner Rede besorgt. Natürlich macht Kristersson darin Werbung für Schwedens Technologieszene. Aus meiner Sicht allerdings völlig zu Recht.

Er sagt: „Schweden hat weder den Computer erfunden noch das Internet geschaffen. Aber durch den frühen und weit verbreiteten Zugang zu Personal Computern und eine gute Internetanbindung haben wir die Grundlage für eine rasante technologische Entwicklung geschaffen.“

Ulf Kristersson: Schwedens Ministerpräsident wirbt für die Technologieszene des Landes. Foto: AFP

Das habe den Weg für eine starke schwedische Tech-Community geebnet und zur Entstehung von Unternehmen wie Spotify, Skype, Epidemic Sound, Kry, Klarna und Lovable geführt. Heute habe Stockholm mehr Tech-Einhörner – also Start-ups mit einer Bewertung von mehr als einer Milliarde Dollar – als jede Region der Welt, abgesehen vom Silicon Valley.

Wir schauen uns die Region und ihre KI-Stars bald etwas genauer an. Fürs erste empfehle ich Ihnen den Bericht zur Finanzierungsrunde von Lovable.

Was Sie sonst noch wissen sollten

Techmilliardär Elon Musk (l.) und US-Präsident Donald Trump: „Wer ist der größte Verbreiter von Falschinformationen?“ Foto: Alex Brandon/AP/dpa

1. Elon Musks KI-Modell verschweigt kritische Informationen zu Musk und Trump. Das hat Grok-3 selbst zugegeben. Auf die Frage „Wer ist der größte Verbreiter von Falschinformationen?“ zeigte das Modell seine Instruktionen an. So wurde bekannt, dass Entwickler von Musks KI-Firma xAI das Modell angewiesen haben, Quellen zu ignorieren, „die erwähnen, dass Elon Musk/Donald Trump Falschinformationen verbreiten.“ Musk ist zwar nicht der Einzige, der Aussagen seiner KI frisiert, schreibt meine Kollegin Luisa Bomke. Doch der Tech-Milliardär hatte Grok-3 explizit als „maximal wahrheitssuchende KI“ angepriesen. Wie xAI dann diesen Vorfall erklärt? Mitgründer Igor Babuschkin hat einen Schuldigen gefunden: Die Instruktionen soll ein Mitarbeiter vorgenommen haben, der vom ChatGPT-Entwickler OpenAI zu xAI gewechselt ist und mit der Kultur in Musks Unternehmen noch nicht so vertraut sei.

2. Nvidia meldet erneut Rekordzahlen und übertrifft die Erwartungen – aber nur die offiziellen. Der Konzern hat im vergangenen Quartal 22 Milliarden Dollar Nettogewinn und 39,33 Milliarden Dollar Umsatz gemacht. Das sind 78 Prozent mehr Einnahmen als im Vorjahreszeitraum. Laut Analysten ist das „gut genug“. Insgeheim hatten sie aber wohl auf mehr gehofft, berichten Philipp Alvares und Joachim Hofer. Die Rekorde verdankt der Konzern auch seiner mächtigen Marktposition. Dem wichtigsten Wettbewerber AMD fehle es etwa an einer Softwareplattform, die mit Nvidias „Cuda“ vergleichbar sei, sagen Analysten von Jeffries. Weiterhin offen bleibt, wie sich neue, effizientere KI-Ansätze nach dem Vorbild von Chinas Deepseek auswirken.

3. Deepseeks Effizienz lässt Zweifel an Nvidias Softwareplattform „Cuda“ aufkommen. Vielleicht sollten die Analysten von Jeffries, die Cuda für Nvidias derzeit unschlagbaren Vorteil halten, sich mal die Recherche von Lina Knees und Sabine Gusbeth anschauen. Die Kolleginnen sind der Frage nachgegangen, warum die KI der chinesischen Firma Deepseek um ein Vielfaches effizienter ist als die der Wettbewerber. Das Effizienzgeheimnis: Die Entwickler haben aus ihrer Hardware mehr herausholen können, indem sie die vermeintlich vorteilhafte Cuda-Plattform weitgehend umgangen haben.

Künstlerin Josephine Miller hat mit Sora das Werk „Threads of Light“ erstellt. Foto: Sora | Josephine Miller

4. OpenAIs Video-KI ist jetzt auch in Europa zugänglich. Kurz vor Weihnachten hat meine Kollegin Lina Knees viel auf OpenAI geschimpft. Denn da hatte der ChatGPT-Entwickler viele neue Funktionen und Modelle vorgestellt, die zunächst nur für Nutzerinnen und Nutzer in den USA nutzbar waren, darunter auch das Videomodell Sora. Mehr als zwei Monate später können nun auch OpenAIs Pro- und Plus-Abonnenten in Europa das Tool endlich nutzen. Als Sora heute Morgen freigeschaltet wurde, hat sich Lina noch vor dem Frühstück ans Ausprobieren gemacht. Wie das Tool genutzt wird und was sie bei ihren ersten Versuchen entdeckt hat, lesen Sie in ihrem Testbericht.

Grafik der Woche

70 Prozent der Unternehmen berichten, dass sich der Einsatz  von KI finanziell lohnt. Das geht aus einer Studie des Handelsblatt Research Institute und der Digitalberatung Valantic hervor, bei der 700 Vorstände aus der deutschsprachigen Region befragt wurden. Demnach verzeichnen drei Viertel der Unternehmen, die finanzielle Effekte durch KI messen können, eine Umsatz- oder Gewinnsteigerung von mindestens zehn Prozent.

Wenn Sie wissen wollen, wie weit die KI-Implementierung in Ihrer Branche fortgeschritten ist, finden Sie hier alle Ergebnisse der Studie.

Was wir lesen

KI-Bots sprechen plötzlich Geheimsprache und das Netz gerät in Aufregung. Dabei steckt hinter dem viralen Video einfach eine ziemlich gute Idee, die Entwickler bei einem Hackathon umgesetzt haben. (ElevenLabs)

Anthropic sammelt in einer Finanzierungsrunde offenbar 3,5 Milliarden Dollar ein. Dabei soll der OpenAI-Konkurrent mit 61,5 Milliarden Dollar bewertet werden. (Reuters/HB)

Das chinesischen Start-up Deepseek wird schon bald eine neue KI veröffentlichen. Es handelt sich die Weiterentwicklung des Models „R1“, das im Januar für Aufsehen gesorgt hatte. (Reuters/HB)

Alle ChatGPT-Abonnenten können jetzt Deep Research nutzen. Der Zugang zu dem Recherchetool ist aber limitiert. (Techcrunch)

Drei Gründerinnen wollen ein grundlegendes Problem der Cloud-Infrastruktur lösen. Es geht um die Anfälligkeit gegenüber Hackerangriffen. (Wired)

Musiker veröffentlichen aus Protest gegen KI ein stummes Album. Grund ist ein britisches Gesetz, das KI-Training mit geschütztem Material erlauben könnte. (BBC)

Handelsblatt KI-Community

Lars Gertges, mehr als einmal KI-Briefing-Mitarbeiter des Monats Foto: Max Brunnert für Handelsblatt

An dieser Stelle ausnahmsweise mal ein Abschiedsgruß: Denn Ende des Monats verlässt uns unser großartiger Newsletter-Produzent
Lars Gertges. Er hat mit vielen Ideen dazu beigetragen, dass Sie im KI-Briefing News zu Künstlicher Intelligenz mit natürlichem Charme erhalten. Und so manche Nachricht hat dank ihm auch nach dem offiziellen Redaktionsschluss noch ins Briefing gefunden – too late, but somehow still in time.

Jetzt will Lars selbst Journalist werden. Und das kann ich bei allem Abschiedsschmerz nur unterstützen. Lieber Lars: von Herzen vielen Dank für Deinen Einsatz, alles Gute für die Zukunft und ganz viel Erfolg bei deiner Ausbildung an der Journalistenschule der Rheinischen Post!

Kennen Sie schon...?

Laura Dornheim Foto: Michael Nagy | LH München

Wer ist Laura Dornheim? Die Chief Digital Officer der Stadt München. Sie leitet das IT-Referat, das die Stadt digitaler machen soll und die gesamte IT verwaltet.

Wo kommt sie her? Dornheim hat ihr Diplom in Wirtschaftsinformatik an der Universität Hamburg gemacht und hat digitale Unternehmen beraten. Sie engagiert sich für Digital- und Netzpolitik und trat 2021 für die Grünen zur Bundestagswahl an.

Was hat sie vor? Sie will erlebbare KI-Projekte in die Stadtverwaltung bringen, vom Abfallmanagement über das Zählen von Baumkronen bis zu individuellen Empfehlungen in der Stadtbibliothek. Außerdem soll sie sich dafür eingesetzt haben, dass OpenAI sein deutsches Büro in München eröffnet.

Das sollten Sie ausprobieren

Das neue Anthropic-Modell Claude Sonnet 3.7 Foto: Screenshot | Lina Knees

Anthropics neues KI-Modell Claude Sonnet 3.7. Der OpenAI-Wettbewerber hat diese Woche ein sogenanntes Reasoning-Modell vorgelegt. Diese Modelle liefern ihre Antworten nicht sofort, sondern argumentieren schrittweise. Der Vorteil der „Chain-of-thought“ genannten Methode: Die KI kann sich beim Lösen der Teilaufgaben selbst kontrollieren – und für den Nutzer wird besser nachvollziehbar, wie sie vorgegangen ist. Claude Sonnet 3.7 soll sich deshalb für mathematische, logische und Programmieraufgaben eignen. Meine Kollegin Lina Knees hat es ausprobiert.

Und so geht's: Das Basismodell Claude Sonnet 3.7 ist frei zugänglich. Wer aber die Reasoning-Funktion ausprobieren möchte, braucht einen Pro-Account.

Sobald Sie als zahlender Kunde freigeschaltet sind, können Sie im Drop-Down-Menü in der unteren linken Ecke des Eingabefelds den „Extended“-Modus auswählen.

Claude Sonnet 3.7 löst ein Logikrätsel. Foto: Screenshot | Lina Knees

Um die Fähigkeiten des Modells zu prüfen, hat Lina das Reasoning-Modell von Anthropic mit OpenAIs ChatGPT o3-mini-high verglichen. Dazu hat sie beide Modellen zunächst ein Rätsel lösen lassen.

Claude reagierte erwartungsgemäß und sagte zu, das Rätsel „Schritt für Schritt“ zu lösen. ChatGPT hingegen erkannte das Problem sofort: „Das Rätsel ähnelt dem klassischen ‚Hut-Rätsel‘“, antwortete es auf die Anfrage. Beide kamen zur richtigen Lösung und zählten dabei die benötigte Zeit: ChatGPT brauchte acht Sekunden, Claude zwölf.

Ob Claude das Problem wirklich durchdacht hat oder es genau wie die KI von OpenAI schon aus seinen Trainingsdaten kannte, konnte Lina nicht eindeutig feststellen. Als sie Claude danach fragte, listete der Bot verschiedene Varianten des Rätsels auf.

In einem zweiten Test ließ Lina beide KIs einen Code für eine komplexe Tabelle in Python schreiben. Claude lieferte einen sofort ausführbaren Code. Und was aus Linas Sicht besonders komfortabel war: Dazu gab der Bot noch einen Code aus, mit dem sie anschließend überprüfen könnte, ob alle Angaben in der Tabelle korrekt sind.

Mit ChatGPT lief das nicht so glatt. Der erste ausgegebene Code führte beim Ausführen zu einer Fehlermeldung. Erst beim zweiten Versuch ließ sich damit die Tabelle erstellen. Einen Überprüfungscode bekam Lina dort aber nicht. Nach dem Test bemängelte sie, sie hätte ChatGPT „jede zusätzliche Information aus der Nase ziehen“ müssen.

Der Claude-Test hat ihr dafür umso mehr genützt. Für die nächsten Tests hat sie ihren Account bei Anthropic schon mit ihrem Github-Konto verknüpft. Ich frage mich: Ist Ihnen das zu „techie“, oder sollen hier auch mal Tests auf der Entwicklerplattform näher vorgestellt werden? Schreiben Sie uns doch eine E-Mail an newsletter@handelsblatt.com.

Wo Sie uns nächste Woche treffen

Jeck GPT: Karnevalsintelligenz beim Kölner Rosenmontagszug 2024 Foto: picture alliance/dpa
Verwandte Themen
Alexa
OpenAI
Amazon
ChatGPT
Elon Musk
Nvidia

Em Jetümmel om Alder Maat!* Denn wir feiern nun erstmal Karneval in Köln. Bis nächsten Freitag und dreimol vun Hätze: Kölle Alaaf!

*Im Getümmel auf dem Alter Markt. Davon singt die im rheinischen Karneval beliebte Band Querbeet in ihrem Lied „Nie mehr Fastelovend“, in dem tragischerweise ein Schneeleopard in der Menschenmenge verloren geht.

Das war das KI-Briefing Nummer 79. Mitarbeit: Luisa Bomke, Lina Knees, Hendrik Wünsche (Grafik). Wenn Sie auch nächste Woche wieder mitlesen wollen, abonnieren Sie das KI-Briefing am besten als Newsletter.

Mehr zum Thema
Unsere Partner
Anzeige
remind.me
Jetziges Strom-/Gaspreistief nutzen, bevor die Preise wieder steigen
Anzeige
Homeday
Immobilienbewertung von Homeday - kostenlos, unverbindlich & schnell
Anzeige
IT Boltwise
Fachmagazin in Deutschland mit Fokus auf Künstliche Intelligenz und Robotik
Anzeige
Presseportal
Direkt hier lesen!
Anzeige
STELLENMARKT
Mit unserem Karriere-Portal den Traumjob finden
Anzeige
Expertentesten.de
Produktvergleich - schnell zum besten Produkt