Go back
‘Sloppy’ Sam rudert zurück | Mistral wird Berater? | Crowdstrike Sea & On Running Earnings #542
112m 18s

‘Sloppy’ Sam rudert zurück | Mistral wird Berater? | Crowdstrike Sea & On Running Earnings #542

Episode Snapshot

In der Podcastfolge werden zunächst unterhaltsame Tech-Themen der Woche besprochen, darunter ein komisches Video eines McDonald's-Influencers und die enttäuschende Vorstellung eines kostengünstigen,...

Quick Summary

Key Points

  • Die Moderatoren diskutieren humorvolle Tech-Nachrichten der Woche, darunter ein virales Video über einen McDonald's-Influencer und die enttäuschende Vorstellung eines günstigen, aber leistungsschwachen MacBook Air von Apple.
  • Im Kontext von Startup-Investitionen wird ein "Pivot" hin zu einem Agentur- oder Beratungsmodell kritisch betrachtet. Die Empfehlung lautet oft, das gescheiterte Projekt zu beenden und mit einer neuen Idee neu zu starten, anstatt Jahre in einem unattraktiven Geschäftsmodell zu verbringen.
  • Diese Diskussion wird auf das europäische KI-Unternehmen Mistral angewendet, dessen mögliche Hinwendung zum Beratungsgeschäft analysiert wird. Die Gründe liegen in der Unfähigkeit, mit US-Giganten wie OpenAI mitzuhalten, und im großen Beratungsbedarf europäischer Unternehmen bei KI-Integration.
  • Ausführlich wird der Konflikt zwischen dem US-Verteidigungsministerium (Department of War) und KI-Firmen wie Anthropic und OpenAI behandelt. Anthropic lehnte einen Deal ab, der unkontrollierte Überwachung und autonome Waffensysteme ermöglicht hätte, während OpenAI ihn zunächst unter umstrittenen Klauseln annahm, später jedoch aufgrund öffentlichen Drucks teilweise revidierte.

Summary

In der Podcastfolge werden zunächst unterhaltsame Tech-Themen der Woche besprochen, darunter ein komisches Video eines McDonald's-Influencers und die enttäuschende Vorstellung eines kostengünstigen, aber speicherreduzierten MacBook Air von Apple, das als Reaktion auf Googles Chromebooks gesehen wird.

Ein zentrales Diskussionsthema ist die Strategie von Startups, insbesondere der sogenannte "Pivot" – eine grundlegende Geschäftsmodelländerung. Die Moderatoren sind sich einig, dass ein Wechsel in ein reines Agentur- oder Beratungsgeschäft nach einer ursprünglich techbasierten Vision oft ein schlechtes Zeichen ist. Aus Investorensicht sei es häufig besser, das gescheiterte Projekt zu beenden und das verbleibende Kapital zurückzugeben, anstatt Gründer in einem unattraktiven Geschäft festzuhalten, das lediglich das Überleben sichert, aber keine große Rendite verspricht. Ein Pivot innerhalb der Tech-Branche (z.B. von Gaming zu Marketplace) wird dagegen als legitim angesehen.

Diese Überlegungen werden auf das europäische KI-Unternehmen Mistral übertragen, von dem berichtet wird, es könnte sich stärker auf Consulting und Integration fokussieren. Als Gründe werden genannt, dass europäische KI-Firmen finanziell nicht mit US-Konzernen wie OpenAI mithalten können und europäische Unternehmen oft intensive Beratung bei der KI-Einführung benötigen. Ob Mistral so ein "europäisches Palantir" werden kann, wird bezweifelt, aber ein nachhaltiges, profitables Geschäft in diesem Bereich wird für möglich gehalten.

Den breitesten Raum nimmt die Analyse des Konflikts zwischen dem US-Verteidigungsministerium und KI-Firmen ein. Anthropic habe einen Vertrag abgelehnt, weil das Pentagon Klauseln zur massenhaften Überwachung und zu autonomen Waffensystemen nicht ausschließen wollte. Im Gegensatz dazu habe OpenAI den Deal zunächst angenommen, was zu einer Welle der Kritik und Nutzerabwanderung führte. Unter diesem Druck ruderte OpenAI-Chef Sam Altman zurück, bezeichnete den Deal als "opportunistisch und schlampig" und veröffentlichte nachträgliche Änderungen am Vertragstext, die bestimmte umstrittene Überwachungsklauseln entfernen sollen. Die Moderatoren betonen die grundsätzliche Gefahr, dass KI-Technologien perfekt für Massenüberwachung geeignet sind und nicht-amerikanische Bürger ohnehin kaum geschützt sind. Der Vorfall wird als Machtdemonstration des Staates gegenüber Tech-Unternehmen und als Warnung vor den ethischen Implikikationen der KI interpretiert.