OpenAI od kilku lat jest na pierwszych stronach światowych newsów. Wszystko za sprawą dynamicznie rozwijającej się sztucznej inteligencji, która szturmem wdarła się na rynek, znajdując sobie wygodne miejsce w praktycznie każdej branży. Ile zachwytów na tym cudem techniki, tyle obaw – wielu specjalistów martwi się bowiem o kształt, jaki przybrać może w niedługim czasie AI. Jednym z nich jest nawet Elon Musk, znany ze swojego zamiłowania do najnowszych technologii wizjoner, który także dostrzega ryzyko, jakie niesie ze sobą myślący algorytm.
W ostatnim czasie media ponownie podjęły temat OpenAI, czyli firmy odpowiedzialnej za sztuczną inteligencję, jednak tym razem z innego powodu niż dotychczas. Chodzi o… sygnalistów, którzy zdecydowali się skorzystać z procedury zgłoszenia zewnętrznego.
Do SEC został bowiem wysłany anonimowy siedmiostronnicowy list, w którym sygnaliści informują o nieetycznych i zastanawiających praktykach w OpenAI. Chodzi przede wszystkim o zniechęcenie pracowników do kontaktu z władzami w sprawach firmowych. Pracownikom miały zostać podane do podpisania dokumenty i umowy, które zobowiązywały ich do poinformowania przełożonych, jeśli dany pracownik chciałby zgłosić się do organów zewnętrznych w sprawie zgłoszenia naruszeń.
Jak możemy przeczytać w tłumaczeniu listu:
Porozumienia zabraniały i zniechęcały zarówno pracowników, jak i inwestorów do komunikowania się z SEC w sprawie naruszeń przepisów dotyczących papierów wartościowych, zmuszały pracowników do zrzeczenia się praw do zachęt i wynagrodzeń dla sygnalistów oraz wymagały od pracowników powiadamiania firmy o komunikowaniu się z rządowymi organami regulacyjnymi. (…) wcześniejsze umowy o zachowaniu poufności OpenAI naruszały prawo, wymagając od pracowników podpisywania nielegalnie restrykcyjnych umów w celu uzyskania zatrudnienia, odpraw i innych świadczeń finansowych.
Czy SEC podejmie kroki w związku ze sprawą OpenAI?
Gary Gensler już zajął się sprawą i złożył stosowane oświadczenie, w którym zaznacza, że jeśli rząd chce sprawować kontrolę nad rozwojem sztucznej inteligencji, to musi przyłożyć rękę do tego, aby sygnaliści w OpenAI byli odpowiednio chronieni:
Monitorowanie i łagodzenie zagrożeń stwarzanych przez sztuczną inteligencję jest częścią konstytucyjnej odpowiedzialności Kongresu za ochronę naszego bezpieczeństwa narodowego, a sygnaliści będą niezbędni do tego zadania. (…) Polityka i praktyki OpenAI wydają się wywierać mrożący wpływ na prawo sygnalistów do wypowiadania się i otrzymywania należnego wynagrodzenia za ich chronione ujawnienia.