Sztuczna inteligencja zyskuje na znaczeniu w różnych sektorach gospodarki, od opieki zdrowotnej po finanse. Z jednej strony, AI niesie ze sobą ogromny potencjał. Z drugiej, wymaga odpowiedzialnego podejścia, aby jej wdrażanie i stosowanie były bezpieczne, transparentne i sprawiedliwe.
Jaki odsetek firm używa AI w 2024 roku?
Według najnowszych danych, 35% firm na całym świecie zgłasza wykorzystywanie sztucznej inteligencji w swojej działalności. Warto zauważyć, że 42% firm informuje, że eksperymentuje z możliwościami wykorzystania AI w swojej organizacji. Ponad 50% organizacji planuje wprowadzenie technologii AI w 2024 roku.
Oznacza to, że ponad 77% firm na świecie albo korzysta z AI, albo bada możliwości jej wykorzystania.
Przełożenie złożonych zasad na praktyczne wskazówki
Implementacja odpowiedzialnej AI zaczyna się od przełożenia abstrakcyjnych zasad na konkretne wytyczne operacyjne. Wiele organizacji, jak Deutsche Telekom czy Thomson Reuters, zdało sobie sprawę, że same zasady etyczne nie wystarczą. Zasady takie jak przejrzystość, wspieranie i zaufanie muszą być przekształcone w konkretne działania i procedury – łatwo zrozumiałe i możliwe do wdrożenia przez pracowników.
Przykład Deutsche Telekom pokazuje, jak ważne jest dostarczenie praktycznych narzędzi i wytycznych dla zespołów pracujących nad AI. Firma wprowadziła w 2021 roku wytyczne dotyczące Inżynierii i użycia AI. Zawierały najlepsze praktyki, metody i wskazówki do implementacji odpowiedzialnych zasad AI na każdym etapie projektu.

Podobne podejście przyjęła firma Thomson Reuters, która stworzyła program zarządzania danymi i AI, kładąc nacisk na zaufanie i przejrzystość. Ważnym aspektem tego procesu była refleksja nad fundamentalnymi blokami budującymi AI i oczekiwaniami wobec pracowników.
Integracja rozważań etycznych w procesie projektowania i rozwoju AI
Integracja rozważań etycznych już na etapie projektowania i rozwoju AI jest kluczowa dla uniknięcia problemów po wdrożeniu. Przykładem może być hiszpański gigant bankowy CaixaBank. Dostosował swoje istniejące procedury bezpieczeństwa do nowych wymagań regulacyjnych dotyczących odpowiedzialnego użycia modeli AI. Organizacja ta wykorzystała swoje wcześniejsze doświadczenia, aby zapewnić zgodność z ponad 100 kontrolami dotyczącymi przejrzystości, sprawiedliwości i dokładności.
Organizacje powinny również zapewnić ciągłe wsparcie i nadzór nad implementacją etycznych wytycznych. Wspominany Deutsche Telekom ustanowiła mechanizmy wsparcia, takie jak centralny adres e-mail do zgłaszania zapytań dotyczących etyki AI oraz regularne audyty wybranych projektów AI, aby upewnić się, że zasady etyczne są przestrzegane.
Dostosowywanie AI do konkretnych potrzeb
Testowanie i ocena rozwiązań AI powinny uwzględniać rzeczywiste warunki, w jakich będą one stosowane. Konieczne jest ciągłe monitorowanie i dostosowywanie tych rozwiązań, aby pozostały one adekwatne do zmieniających się warunków. Die Mobiliar, szwajcarska firma ubezpieczeniowa, stanowi przykład organizacji, która zrównoważyła strategię biznesową, prywatność danych i etykę AI, angażując interdyscyplinarny zespół do regularnej analizy synergii między tymi aspektami. Firma wdrożyła Mobi-ChatGPT wspierany technologią od OpenAI.
Zaangażowanie zewnętrznych partnerów, takich jak uniwersytety i grupy przemysłowe, może również dostarczyć cennych perspektyw i informacji, które pomogą w dostosowywaniu rozwiązań AI do aktualnych potrzeb. Oregon Health and Science University, na przykład, współpracuje z innymi centrami medycznymi i rządowymi, aby wzbogacić swoje podejście do etyki AI.
Pozostała część artykułu pod materiałem wideo:
Kompleksowe wdrażanie praktyk w całej organizacji
W szybko zmieniającym się krajobrazie AI ważne jest promowanie środowiska uczenia się i dzielenia się wiedzą w całej organizacji. Firma Bristol-Meyers-Squibb (BMS) stworzyła projekt „AI Collective”, która regularnie spotyka się, aby wymieniać się spostrzeżeniami i pomysłami na rozwój projektów AI. Ta oddolna inicjatywa sprzyja innowacjom poprzez naukę od siebie nawzajem i rozmowy prowadzone przez ekspertów.
Skuteczne skalowanie praktyk odpowiedzialnej AI można osiągnąć poprzez opracowanie zestawu narzędzi do wdrażania tych praktyk. Co więcej, Francuska firma Thales stworzyła taki zestaw, zawierający informacje o praktykach odpowiedzialnej AI, porady dotyczące implementacji oraz studia przypadków, które pomogły lokalnym zespołom AI dostosować te praktyki do swoich potrzeb.
Zakończenie
Odpowiedzialna implementacja AI w organizacjach wymaga kompleksowego podejścia. Właściwe działanie łączy zasady etyczne z praktycznymi wytycznymi, ciągłym wsparciem i dostosowywaniem rozwiązań do zmieniających się warunków. Kluczowe jest, aby liderzy organizacji aktywnie promowali kulturę wartościującą etykę AI i zapewnili, że odpowiedzialne praktyki AI są integralną częścią procesu decyzyjnego. Tylko w ten sposób można maksymalizować korzyści z AI, minimalizując jednocześnie ryzyko dla organizacji i społeczeństwa.
Czytaj dalej: