Beschreibung
Generative KI-Modelle könnten absichtlich eingesetzt werden, um Menschen durch Deepfakes zu imitieren, indem Video, Bilder, Audio oder andere Modalitäten ohne deren Zustimmung verwendet werden.
Warum ist nicht einvernehmliche Verwendung ein Anliegen für Gründungsmodelle?
Deepfakes kann Desinformation über eine Person verbreiten, was möglicherweise zu einer negativen Auswirkung auf den Ruf der Person führt. Ein Modell mit diesem Potenzial muss ordnungsgemäß reguliert werden.
FBI Warnung auf Deepfakes
Das FBI warnte vor kurzem die Öffentlichkeit vor böswilligen Akteuren, die synthetische, explizite Inhalte "für die Zwecke der Belästigung von Opfern oder Sextortionsschemata" erstellen. Sie stellten fest, dass Fortschritte bei KI diese Inhalte qualitativ hochwertiger, anpassungsfähiger und zugänglicher machen als je zuvor.
Audio-Deepfakes
Laut Quellenartikel hat die Federal Communications Commission Robocalls verboten, die Stimmen enthalten, die durch künstliche Intelligenz erzeugt werden. Die Ankündigung erfolgte, nachdem KI-generierte Robocalls die Stimme des Präsidenten nachahmeten, um Menschen davon abzuhalten, in der First-in-the-Nation-Vorwahl des Staates zu wählen.
Übergeordnetes Thema: AI-Risikoatlas
Wir stellen Beispiele vor, die von der Presse abgedeckt werden, um viele der Risiken der Fundamentmodelle zu erklären. Viele dieser Ereignisse, die von der Presse abgedeckt werden, entwickeln sich entweder noch weiter oder wurden gelöst, und ihre Bezugnahme kann dem Leser helfen, die potenziellen Risiken zu verstehen und auf Minderungen hinzuarbeiten. Die Hervorhebung dieser Beispiele dient nur zur Veranschaulichung.