Was wollen Startups von der KI-Regulierung?

Startups brauchen Klarheit von den Regulierungsbehörden, wenn sie versuchen, Produkte sicher und verantwortungsvoll zu entwickeln, aber was genau wollen sie?

Der britische KI-Sicherheitsgipfel letzte Woche wird von vielen als diplomatischer Erfolg gewertet, aber für Gründerinnen und Gründer, die KI-Produkte entwickeln, warf die Veranstaltung mehr Fragen auf, als sie beantwortete.

„Ein solcher Gipfel ist keine Veranstaltung, auf der politische Entscheidungen getroffen werden“, sagt Connor Leahy, Mitbegründer des KI-Sicherheits-Start-ups Conjecture. „Es ist die Art von Veranstaltung, bei der man sich kennenlernt, Informationen austauscht, lernt und Verbindungen aufbaut.

Trotz der Ankündigung, dass Großbritannien und die USA eigene KI-Sicherheitsinstitute gründen werden, um die Risiken, die fortschrittliche KI-Systeme darstellen könnten, weiter zu untersuchen, wollen die Gründer/innen nun ernsthafte Anstrengungen unternehmen, um für die Branche regulatorische Klarheit zu schaffen.

Klare Regeln sind besser als keine Regeln

In einem Gespräch im Vorfeld des Gipfels sagte Eric Topham, Mitbegründer des Londoner Startups Octaipipe, das Datensicherheitslösungen für KI-Produkte entwickelt, die auf physischen Geräten eingesetzt werden, dass er klarere Regeln in Großbritannien begrüßen würde.

„Der [bevorstehende] Cyber Resiliency Act in Europa bestraft Datenverstöße auf Geräten, also wird die IT-Branche darauf reagieren müssen“, erklärt er. „Im Vereinigten Königreich ist viel weniger klar, was zu tun ist – es ist viel schwieriger zu wissen, was die Standards sind.

Topham ist zwar der Meinung, dass definierte Regeln für die Datensicherheit es einfacher machen würden, an Kunden zu verkaufen, aber das bedeutet nicht, dass er den Ansatz der EU bei der KI-Gesetzgebung uneingeschränkt befürwortet.

Wie viele Gründerinnen und Gründer ist er der Meinung, dass ein sektorspezifischer Ansatz für die Regulierung besser ist als der eher horizontale Ansatz der EU, der dieselben Regeln auf eine ganze Reihe von Branchen anwendet.

Alex Kendall – Mitbegründer des in London ansässigen Unternehmens für autonomes Fahren Wayve – sagte kürzlich im Sifted-Podcast, dass es keinen Sinn macht, eine Reihe von Regeln für sehr unterschiedliche Branchen zu haben.


„Ich denke, mit einer breit angelegten KI-Regulierung würden wir uns selbst in den Fuß schießen. Die Risiken sind sehr unterschiedlich, wenn du ein Arzt, ein Buchhalter oder ein Autofahrer bist“, sagte er.

Unmittelbar und langfristig

Diese Art von Regulierungsbereichen – in denen KI in der realen Welt eingesetzt wird oder sich auf ihren Einsatz vorbereitet – werden in der Branche als „enge“ Anwendungsfälle bezeichnet, und viele sind der Meinung, dass sie mehr Aufmerksamkeit verdienen.

Der britische Gipfel wurde dafür kritisiert, dass er sich hauptsächlich auf „katastrophale“ Risiken durch superstarke KI-Systeme der Zukunft konzentrierte und nicht auf unmittelbarere Probleme.

Marc Warner, CEO von Faculty, einem Hersteller von KI-Systemen für Unternehmen, meint jedoch, dass es an der Zeit ist, sich mit den langfristigen Risiken zu befassen und gleichzeitig die Diskussion über die kurzfristigen Bedrohungen fortzusetzen.

„Um eine Analogie mit Autos zu verwenden: Ich kümmere mich um Sicherheitsgurte, aber auch um Katalysatoren, denn ich mache mir Gedanken über die kurzfristigen Risiken eines Unfalls, aber auch über die langfristigen Risiken und die globale Erwärmung“, sagt er. „Wenn du mich fragst: ‚Willst du entweder Sicherheitsgurte oder Katalysatoren?‘ Ich sage einfach: ‚Ich will beides‘, und so ist es auch mit der KI.“

Wie kann man Grenzrisiken regulieren?

Die Frage, wie die leistungsstärksten KI-Systeme – die mit riesigen Datenmengen und Rechenleistung trainiert werden – reguliert werden sollen, ist in der KI-Branche umstritten.

Einige, wie Yann LeCun von Meta, sind der Meinung, dass wir uns keine Sorgen machen müssen, dass Modelle wie GPT-4 außer Kontrolle geraten, da sie nicht wirklich intelligent sind, sondern im Grunde nur hochentwickelte Autovervollständigungssysteme.

Leahy von Conjecture plädiert hingegen dafür, eine maximale Rechenleistung für das Training neuer Modelle festzulegen, um Risiken zu vermeiden, die mit der Entwicklung von Systemen einhergehen könnten, die die menschlichen Fähigkeiten übersteigen.

„Wenn man Systeme entwickelt, die in allen Bereichen – Wissenschaft, Wirtschaft, Politik usw. – leistungsfähiger sind als der Mensch und man sie nicht kontrolliert, werden die Maschinen die Zukunft kontrollieren, nicht die Menschen“, sagt er.

Das in Paris ansässige generative KI-Startup Mistral, das mit Unternehmen wie OpenAI konkurriert, um große Sprachmodelle zu erstellen, setzt sich dafür ein, dass große Tech-Unternehmen einer verpflichtenden unabhängigen Aufsicht über ihre Modelle unterliegen, so dass öffentliche Forschungseinrichtungen sie untersuchen können.

Derzeit haben Unternehmen wie OpenAI, GoogleDeepMind, Anthropic und Inflection freiwillige Vereinbarungen getroffen, um ihre Modelle vor der Veröffentlichung von externen Parteien testen zu lassen, aber Mistral-Mitbegründer Arthur Mensch sagt, dass eine Gesetzgebung notwendig ist, um sicherzustellen, dass sich die großen Tech-Unternehmen „nicht selbst regulieren“.

Mustafa Suleyman, Mitbegründer von DeepMind und jetziger CEO von Inflection, sagte, dass freiwillige Vereinbarungen nur ein „erster Schritt“ seien, dass aber bei der Regulierung die Rechte der Unternehmen am geistigen Eigentum berücksichtigt werden müssten.

Nach einer wichtigen Woche für die KI-Sicherheitsdebatte haben Gründerinnen und Gründer immer noch viele Fragen dazu, wie der Gesetzgeber mit den Werkzeugen, die sie bauen, umgehen wird und welche Regeln dafür gelten sollen. Aber für Warner von der Fakultät ist die Tatsache, dass die Diskussion immer noch geführt wird, positiv.

„Stell dir vor, wenn wir vor 40 Jahren auf Ministerpräsidentenebene über die globale Erwärmung gesprochen hätten, wie anders könnte unser Planet jetzt aussehen?“