Was wollen Startups von der KI-Regulierung?

Startups brauchen Klarheit von den Regulierungsbehörden, wenn sie versuchen, Produkte sicher und verantwortungsvoll zu entwickeln, aber was genau wollen sie?

Der britische KI-Sicherheitsgipfel letzte Woche wird von vielen als diplomatischer Erfolg gewertet, aber für Gründerinnen und Gründer, die KI-Produkte entwickeln, warf die Veranstaltung mehr Fragen auf, als sie beantwortete.

„Ein solcher Gipfel ist keine Veranstaltung, auf der politische Entscheidungen getroffen werden“, sagt Connor Leahy, Mitbegründer des KI-Sicherheits-Start-ups Conjecture. „Es ist die Art von Veranstaltung, bei der man sich kennenlernt, Informationen austauscht, lernt und Verbindungen aufbaut.

Trotz der Ankündigung, dass Großbritannien und die USA eigene KI-Sicherheitsinstitute gründen werden, um die Risiken, die fortschrittliche KI-Systeme darstellen könnten, weiter zu untersuchen, wollen die Gründer/innen nun ernsthafte Anstrengungen unternehmen, um für die Branche regulatorische Klarheit zu schaffen.

Klare Regeln sind besser als keine Regeln

In einem Gespräch im Vorfeld des Gipfels sagte Eric Topham, Mitbegründer des Londoner Startups Octaipipe, das Datensicherheitslösungen für KI-Produkte entwickelt, die auf physischen Geräten eingesetzt werden, dass er klarere Regeln in Großbritannien begrüßen würde.

„Der [bevorstehende] Cyber Resiliency Act in Europa bestraft Datenverstöße auf Geräten, also wird die IT-Branche darauf reagieren müssen“, erklärt er. „Im Vereinigten Königreich ist viel weniger klar, was zu tun ist – es ist viel schwieriger zu wissen, was die Standards sind.

Topham ist zwar der Meinung, dass definierte Regeln für die Datensicherheit es einfacher machen würden, an Kunden zu verkaufen, aber das bedeutet nicht, dass er den Ansatz der EU bei der KI-Gesetzgebung uneingeschränkt befürwortet.

Wie viele Gründerinnen und Gründer ist er der Meinung, dass ein sektorspezifischer Ansatz für die Regulierung besser ist als der eher horizontale Ansatz der EU, der dieselben Regeln auf eine ganze Reihe von Branchen anwendet.

Alex Kendall – Mitbegründer des in London ansässigen Unternehmens für autonomes Fahren Wayve – sagte kürzlich im Sifted-Podcast, dass es keinen Sinn macht, eine Reihe von Regeln für sehr unterschiedliche Branchen zu haben.


„Ich denke, mit einer breit angelegten KI-Regulierung würden wir uns selbst in den Fuß schießen. Die Risiken sind sehr unterschiedlich, wenn du ein Arzt, ein Buchhalter oder ein Autofahrer bist“, sagte er.

Unmittelbar und langfristig

Diese Art von Regulierungsbereichen – in denen KI in der realen Welt eingesetzt wird oder sich auf ihren Einsatz vorbereitet – werden in der Branche als „enge“ Anwendungsfälle bezeichnet, und viele sind der Meinung, dass sie mehr Aufmerksamkeit verdienen.

Der britische Gipfel wurde dafür kritisiert, dass er sich hauptsächlich auf „katastrophale“ Risiken durch superstarke KI-Systeme der Zukunft konzentrierte und nicht auf unmittelbarere Probleme.

Marc Warner, CEO von Faculty, einem Hersteller von KI-Systemen für Unternehmen, meint jedoch, dass es an der Zeit ist, sich mit den langfristigen Risiken zu befassen und gleichzeitig die Diskussion über die kurzfristigen Bedrohungen fortzusetzen.

„Um eine Analogie mit Autos zu verwenden: Ich kümmere mich um Sicherheitsgurte, aber auch um Katalysatoren, denn ich mache mir Gedanken über die kurzfristigen Risiken eines Unfalls, aber auch über die langfristigen Risiken und die globale Erwärmung“, sagt er. „Wenn du mich fragst: ‚Willst du entweder Sicherheitsgurte oder Katalysatoren?‘ Ich sage einfach: ‚Ich will beides‘, und so ist es auch mit der KI.“

Wie kann man Grenzrisiken regulieren?

Die Frage, wie die leistungsstärksten KI-Systeme – die mit riesigen Datenmengen und Rechenleistung trainiert werden – reguliert werden sollen, ist in der KI-Branche umstritten.

Einige, wie Yann LeCun von Meta, sind der Meinung, dass wir uns keine Sorgen machen müssen, dass Modelle wie GPT-4 außer Kontrolle geraten, da sie nicht wirklich intelligent sind, sondern im Grunde nur hochentwickelte Autovervollständigungssysteme.

Leahy von Conjecture plädiert hingegen dafür, eine maximale Rechenleistung für das Training neuer Modelle festzulegen, um Risiken zu vermeiden, die mit der Entwicklung von Systemen einhergehen könnten, die die menschlichen Fähigkeiten übersteigen.

„Wenn man Systeme entwickelt, die in allen Bereichen – Wissenschaft, Wirtschaft, Politik usw. – leistungsfähiger sind als der Mensch und man sie nicht kontrolliert, werden die Maschinen die Zukunft kontrollieren, nicht die Menschen“, sagt er.

Das in Paris ansässige generative KI-Startup Mistral, das mit Unternehmen wie OpenAI konkurriert, um große Sprachmodelle zu erstellen, setzt sich dafür ein, dass große Tech-Unternehmen einer verpflichtenden unabhängigen Aufsicht über ihre Modelle unterliegen, so dass öffentliche Forschungseinrichtungen sie untersuchen können.

Derzeit haben Unternehmen wie OpenAI, GoogleDeepMind, Anthropic und Inflection freiwillige Vereinbarungen getroffen, um ihre Modelle vor der Veröffentlichung von externen Parteien testen zu lassen, aber Mistral-Mitbegründer Arthur Mensch sagt, dass eine Gesetzgebung notwendig ist, um sicherzustellen, dass sich die großen Tech-Unternehmen „nicht selbst regulieren“.

Mustafa Suleyman, Mitbegründer von DeepMind und jetziger CEO von Inflection, sagte, dass freiwillige Vereinbarungen nur ein „erster Schritt“ seien, dass aber bei der Regulierung die Rechte der Unternehmen am geistigen Eigentum berücksichtigt werden müssten.

Nach einer wichtigen Woche für die KI-Sicherheitsdebatte haben Gründerinnen und Gründer immer noch viele Fragen dazu, wie der Gesetzgeber mit den Werkzeugen, die sie bauen, umgehen wird und welche Regeln dafür gelten sollen. Aber für Warner von der Fakultät ist die Tatsache, dass die Diskussion immer noch geführt wird, positiv.

„Stell dir vor, wenn wir vor 40 Jahren auf Ministerpräsidentenebene über die globale Erwärmung gesprochen hätten, wie anders könnte unser Planet jetzt aussehen?“

Aleph Alpha erhält 500 Millionen Dollar in einer der größten KI-Runden Europas

Das deutsche KI-Unternehmen Aleph Alpha hat heute in einer der größten KI-Runden, die es je in Europa gab, 500 Mio. US-Dollar (460 Mio. Euro) eingesammelt. 110 Mio. Euro der Finanzierung werden in Form von Eigenkapital zur Verfügung gestellt, und Sifted geht davon aus, dass der Großteil der Finanzierung in Form eines Zuschusses erfolgt. Es sind keine Schulden enthalten.

Die Runde, über die das Handelsblatt zuerst berichtete, wird von einer Gruppe von sieben neuen Investoren angeführt, darunter der Innovationspark Künstliche Intelligenz (Ipai) mit Sitz in Heilbronn, Bosch Ventures und SAP, um nur einige zu nennen. Bestehende Investoren wie Cavalry Ventures, LEA Partners und 468 Capital haben sich ebenfalls beteiligt.

Aleph Alpha entwickelt große Sprachmodelle (LLMs), die dem GPT-4 von OpenAI ähneln, aber für Unternehmen und nicht für Verbraucher entwickelt wurden.

Die Finanzierung wird die Forschungskapazitäten von Aleph Alpha stärken und die Entwicklung und Vermarktung von generativer KI für Anwendungen in den Bereichen Gesundheit, Finanzen, Recht, Regierung und Sicherheit beschleunigen. Man hofft, dass die Finanzierung Aleph Alpha helfen wird, mit internationalen Konkurrenten aus den USA und China zu konkurrieren.

Technologische Souveränität

Gründer und CEO Jonas Andrulis wollte ausschließlich deutsche und europäische Investoren gewinnen, berichtet ein VC, der an der Finanzierungsrunde teilgenommen hat – was sich als schwierig erwies. Der VC sagt, dass US-Fonds daran interessiert waren, sich an der Runde zu beteiligen, aber nur das US-amerikanische Unternehmen Hewlett Packard Enterprise beteiligte sich mit einem kleinen Betrag.

Trotz Aleph Alphas Wunsch, einen Beitrag zur europäischen Technologiesouveränität zu leisten, bleibt abzuwarten, ob das Unternehmen ohne US-Investitionen oder -Ressourcen zu einem bedeutenden KI-Anbieter werden kann.

Claude Ritter, Partner bei Cavalry Ventures, ist hoffnungsvoll. „In der Vergangenheit gab es hier [in Europa] nicht das nötige Kapital. Aber mit dem Aufstieg von DeepMind, Mistral und anderen KI-Unternehmen haben wir eine Menge Daten, die zeigen, dass hier etwas passiert“, sagt er.

„Das Interesse der Regierungen ist groß, und Frankreich setzt sich für das Thema ein. Ich habe das Gefühl, dass es für Aleph Alpha ein gutes Momentum gibt, um an den Start zu gehen. Wird es für immer ein deutsches Unternehmen bleiben? Das kann ich dir nicht sagen.“

„Ja, ich möchte dazu beitragen, dass es eine technologische Souveränität gibt, und ich möchte das kleinste Unternehmen sein, das das tun kann“

Andrulis selbst sagte Sifted auf einer Konferenz in Heilbronn, wo Ipai seinen Sitz hat, dass es nie seine Absicht war, ein großes Unternehmen zu werden. „Ich möchte nicht unbedingt ein Unternehmen mit 10.000 Mitarbeitern haben. Ja, ich möchte dazu beitragen, dass es eine technologische Souveränität gibt, und ich möchte das kleinste Unternehmen sein, das das schafft.“

„Das Ziel war nie die Größe, sondern die Fähigkeit“, fügt Andrulis hinzu. „Die kleinste Anzahl von Leuten, die mich dorthin bringen kann, ist also in Ordnung.