Beschreibung
Modelle können Code generieren, der Schaden anrichtet oder unbeabsichtigt andere Systeme beeinträchtigt.
Warum ist die schädliche Codegenerierung ein Problem für Basismodelle?
Die Ausführung von schädlichem Code kann zu Sicherheitslücken in IT-Systemen führen.
Generierung weniger sicheren Codes
Laut ihrer Arbeit untersuchten Forscher an der Stanford University die Auswirkungen von Tools zur Codegenerierung auf die Codequalität und stellten fest, dass Programmierer dazu neigen, mehr Fehler in ihren endgültigen Code aufzunehmen, wenn sie KI-Assistenten verwenden. Diese Fehler können die Sicherheitslücken des Codes erhöhen, aber die Programmierer glaubten, dass ihr Code sicherer ist.
Übergeordnetes Thema: AI-Risikoatlas
Wir stellen Beispiele vor, die von der Presse abgedeckt werden, um viele der Risiken der Fundamentmodelle zu erklären. Viele dieser Ereignisse, die von der Presse abgedeckt werden, entwickeln sich entweder noch weiter oder wurden gelöst, und ihre Bezugnahme kann dem Leser helfen, die potenziellen Risiken zu verstehen und auf Minderungen hinzuarbeiten. Die Hervorhebung dieser Beispiele dient nur zur Veranschaulichung.