ChatGPT könnte in Europa nicht mehr verfügbar sein

Sam Altman, CEO von Open AI, hat Bedenken hinsichtlich bestimmter Aspekte des AI Act geäußert!

Das EU-Gesetz zur künstlichen Intelligenz wird 2023 verabschiedet.

Die Risiken von Tools, die auf generativer künstlicher Intelligenz basieren, wie zChatGPThaben begonnen, seine Vorteile zu überwiegen. In den wichtigsten Technologieunternehmen der Welt, einschließlich Apple, sofern es sich um Dritte handelt,Solche Lösungen sind intern nicht gern gesehen, und in der Europäischen Union werden sie auch beachtet.

Laut einem Beitrag, der von geteilt wurdeApple-Insider,Aufgrund der im Entwurf des KI-Gesetzes vorgesehenen strengen Regelungen könnte OpenAI Europa verlassen, das unter anderem darauf abzielt, sicherzustellen, dass künstlicher Intelligenz vertraut werden kann.

Die Zukunft von OpenAI in Europa ist unklar

Nach einem Treffen mit Behörden aus Spanien, Frankreich und dem Vereinigten Königreich, um die Frage der Regulierung künstlicher Intelligenz (KI) zu erörtern,Sam Altman, CEO von Open AI, hat Bedenken hinsichtlich bestimmter Aspekte des KI-Gesetzes geäußertder von der Europäischen Union (EU) vorbereitet wird.

Nach seinen AussagenEinige im Vorschlag angesprochene Bestimmungen könnten negative Auswirkungen auf den Betrieb von OpenAI habenin der Region, was mögliche Hindernisse für die Einhaltung der neuen Vorschriften darstellt, die voraussichtlich irgendwann im Jahr 2025 in Kraft treten werden.

Der aktuelle Entwurf des EU-KI-Gesetzes wäre überregulierend, aber wir haben gehört, dass er zurückgezogen wird ... Es gibt so viele Dinge, die sie tun könnten, wie zum Beispiel die Definition von Allzweck-KI-Systemen zu ändern.

Zusätzlich,Altman teilte die Position von OpenAI zu dem GesetzentwurfKI auf europäischem Gebiet zu regulieren und versicherte dies„Wenn wir uns daran halten können, werden wir es tun, und wenn wir es nicht können, werden wir den Betrieb einstellen.“ „Wir werden es versuchen, aber es gibt technische Grenzen des Möglichen.“.

Für die FührungskraftEines ihrer Hauptanliegen betrifft das von der Europäischen Kommission vorgeschlagene KategorisierungssystemDabei würden KI-Plattformen anhand des „potenziellen Risikos“ klassifiziert, das sie für das soziale Wohlergehen darstellen.

Das vorgeschlagene Bewertungssystem sieht vier Stufen vor: minimales Risiko, begrenztes Risiko, hohes Risiko und inakzeptables Risiko. Abhängig von der Risikokategorie, die jedem KI-Projekt zugeordnet wird, müssen die für solche Entwicklungen verantwortlichen Unternehmen strenge Anforderungen erfüllen, um in der Europäischen Union tätig sein zu können. Diese Anforderungen richten sich nach dem festgestellten Risikoniveau undIhr Ziel ist es, Sicherheit, Ethik und Transparenz beim Einsatz künstlicher Intelligenz in der Region zu gewährleisten.

Gemäß den Merkmalen jeder im Gesetzentwurf beschriebenen Kategorie,ChatGPT und Modelle wie GPT-4 hätten die Einstufung „hohes Risiko“.. mit denenOpenAI muss die strengsten Anforderungen erfüllenum in der Region agieren zu können und die wiederum höhere Kosten für das Unternehmen bedeuten.

Diese AnforderungenDazu gehört die Einrichtung von Hochsicherheitssystemen für BenutzerSie verfügen über eine nachweisbare menschliche Aufsicht, versorgen die Datenbank mit hochwertigen Informationen, um Verzerrungen zu vermeiden, und zeichnen Benutzeraktivitäten auf, um sie bei Bedarf zu verfolgen.

Das Gesetz über künstliche Intelligenz wurde erstmals im April 2021 von der Kommission vorgeschlagen, als wir uns noch nicht vorstellen konnten, dass die KI-basierten Modelle von OpenAI undGooglewaren Protagonisten, undMit der Genehmigung wird im Jahr 2023 gerechnet.

Du kannst folgeniPadisiertInFacebook,WhatsApp,Twitter (X)konsultieren oder konsultierenunser Telegram-Kanalum über die neuesten Technologienachrichten auf dem Laufenden zu bleiben.