In einem offenen Brief, der am Mittwoch veröffentlicht wurde, fordern die Unterzeichner eine Denkpause von mindestens sechs Monaten. Dieser Entwicklungsstopp solle der Branche Zeit geben, Sicherheitsstandards für die Entwicklung von KI festzulegen und mögliche Schäden durch die riskantesten KI-Technologien abzuwenden.
Der Aufruf wurde von dem gemeinnützigen Institut "Future of Life" veröffentlicht, bei dem Musk als externer Berater agiert. Neben dem Tesla-Chef unterzeichneten mehr als 1.000 Personen das Manifest, darunter Emad Mostaque, Chef der KI-Firma Stability AI, und mehrere Entwickler von Googles KI-Tochter DeepMind. Zu den Unterstützern gehören weiterhin die KI-Pioniere Stuart Russel, Gary Marcus und Yoshua Bengio.
Die Gefahren von Generativer KI
In dem Manifest warnen sie vor Gefahren sogenannter Generativer KI, wie sie etwa mit dem Text-Roboter ChatGPT oder dem Bild-Generator DALL-E von OpenAI umgesetzt wurde. Diese KI-Tools können menschliche Interaktion simulieren und anhand weniger Stichworte Texte oder Bilder erstellen.
Musk hatte ursprünglich das KI-Start-up OpenAI als gemeinnützige Organisation mitbegründet. Er zog sich dann aber zurück, nachdem sich OpenAI-Chef Sam Altman mit seinen Plänen durchgesetzt hatte, die Entwicklung der KI-Software durch großangelegte finanzielle und technische Kooperationen vor allem mit Microsoft voranzutreiben.
Seit der Veröffentlichung von ChatGPT im vergangenen November steht das Thema "Künstliche Intelligenz" im Fokus der Öffentlichkeit. Google sah sich gezwungen, seinen eher restriktiven Kurs bei der Veröffentlichung von KI-Tools aufzugeben und konterte mit dem eigenen Chat-Roboter Bard die Offensive von OpenAI.
Politischer Handlungsbedarf nötig
In Deutschland begrüßte der TÜV-Verband den offenen Brief. "Der Appell zeigt den politischen Handlungsbedarf für eine klare gesetzliche Regulierung Künstlicher Intelligenz", erklärte Joachim Bühler, Geschäftsführer des TÜV-Verbands. Nur so könne man die Risiken besonders leistungsfähiger KI-Systeme in den Griff bekommen.
Die Expertinnen und Experten warnten vor einer Flut von Propaganda und Fake News, der Vernichtung vieler Arbeitsplätze und einem generellen Kontrollverlust, betonte Bühler. "Gleichzeitig ist klar, dass KI-Systeme verstärkt in der Medizin, in Fahrzeugen oder anderen sicherheitskritischen Bereichen eingesetzt werden. Fehlfunktionen können fatale Folgen haben." In diesen Bereichen seien rechtliche Leitplanken nötig. "Das schafft Vertrauen und fördert innovative Angebote, statt sie auszubremsen." (dpa/rs/rw)