We wtorek Google zaktualizowało swoje zasady dotyczące sztucznej inteligencji, usuwając zastrzeżenie, że nie będzie używać tej technologii do broni ani do nadzoru. Zmienione zasady AI zostały opublikowane zaledwie kilka tygodni po tym, jak dyrektor generalny Google Sundar Pichai i inni tytani technologii wzięli udział w inauguracji prezydenta USA Donalda Trumpa.
Kiedy zapytano o zmianę, rzecznik Google odniósł się do wpisu na blogu opisującego zasady AI firmy, w którym nie wspomniano o obietnicach, które Pichai po raz pierwszy przedstawił w 2018 roku.
– „Uważamy, że demokracje powinny przewodzić w rozwoju AI, kierując się podstawowymi wartościami, takimi jak wolność, równość i poszanowanie praw człowieka” — czytamy w zaktualizowanym wpisie na blogu o zasadach AI autorstwa szefa Google DeepMind Demisa Hassabisa i starszego wiceprezesa laboratoriów badawczych Jamesa Manyiki. – „Wierzymy, że firmy, rządy i organizacje podzielające te wartości powinny współpracować, aby tworzyć AI, które chroni ludzi, promuje globalny wzrost i wspiera bezpieczeństwo narodowe”.
Pichai wcześniej oświadczał, że firma nie będzie projektować ani wdrażać technologii dla broni przeznaczonej do krzywdzenia ludzi lub „zbierania lub wykorzystywania informacji do nadzoru naruszającego międzynarodowe normy”. Sformułowanie zniknęło z zaktualizowanych zasad AI udostępnionych przez Google we wtorek (4.02).
Po objęciu urzędu Trump szybko uchylił rozporządzenie wykonawcze swojego poprzednika, byłego prezydenta Joe Bidena, wprowadzające praktyki bezpieczeństwa dla AI. Firmy biorące udział w wyścigu o przywództwo w rozwijającej się dziedzinie AI w Stanach Zjednoczonych mają teraz mniej obowiązków do wypełnienia, takich jak obowiązek udostępniania wyników testów sygnalizujących, że technologia stwarza poważne ryzyko dla kraju, jego gospodarki lub obywateli.
– Toczy się globalna rywalizacja o przywództwo w dziedzinie AI w coraz bardziej złożonym krajobrazie geopolitycznym — mówią Hassabis i Manyika. – Miliardy ludzi używają AI w swoim codziennym życiu.
Oryginalne zasady sztucznej inteligencji Google zostały opublikowane po sprzeciwie pracowników wobec zaangażowania firmy w projekt badawczy Pentagonu, który badał wykorzystanie sztucznej inteligencji w celu poprawy zdolności systemów uzbrojenia do identyfikowania celów. Google zakończyło już swój udział w projekcie.


















Zostaw komentarz