Google hat einen wichtigen Abschnitt seiner KI-Grundsätze gestrichen, der das Unternehmen bisher von der Entwicklung künstlicher Intelligenz für Waffen und Überwachung ausschloss. Durch die Änderung entfällt der Abschnitt „Anwendungen werden nicht verfolgt“, der KI zur Schädigung von Menschen oder zur Massenüberwachung ausdrücklich ausschloss. Demis Hassabis, Leiter von Google DeepMind, und James Manyika, Senior Vice President für Technologie und Gesellschaft, erklärten, das Unternehmen habe seine Grundsätze aktualisiert, um dem weit verbreiteten Einsatz von KI Rechnung zu tragen. Sie betonten, dass Google seine KI-Bemühungen weiterhin mit internationalem Recht und Menschenrechtsstandards in Einklang bringen werde. Der Schritt hat bei Experten, darunter der britische Informatiker Stuart Russell, der vor den Risiken autonomer Waffen gewarnt hat, Bedenken ausgelöst. Während Google darauf besteht, dass die Sicherheit von KI weiterhin Priorität hat, befürchten Kritiker, dass der Strategiewechsel die Tür zu militärischen und Überwachungsanwendungen öffnen könnte. Das Unternehmen verteidigte die Änderung und erklärte, dass es sich darauf konzentrieren werde, die Vorteile der KI gegenüber den potenziellen Risiken abzuwägen. „Wir investieren mehr denn je in die KI-Sicherheit“, schreiben Hassabis und Manyika in einem Unternehmensblog. Die Aufhebung früherer Beschränkungen signalisiert jedoch einen grundlegenden Wandel in Googles Ansatz zur KI-Ethik.
