Sztuczna inteligencja w ciągu ostatnich kilku miesięcy przeżywa boom, a debatę dotyczącą tej technologii zdominowały jak na razie aspekty rozrywkowe i biznesowe czy zagrożenia związane z rynkiem pracy. Jednak wśród badaczy coraz częściej mówi się o koncepcji AI for social impact, czyli zastosowaniu sztucznej inteligencji do rozwiązywania istotnych wyzwań w wymiarze społecznym.
Sztuczna inteligencja w walce z hejtem i dezinformacją
AI może być pomocna np. w detekcji i zwalczaniu szkodliwych i nielegalnych treści – hejtu, mowy nienawiści czy dziecięcej pornografii w internecie, wspierać rozwój medycyny czy walkę z przestępczością. Eksperci podkreślają jednak konieczność lepszego poznania i właściwego uregulowania tej technologii, co jednocześnie pozwoli uniknąć związanych z nią zagrożeń.
Według badania przeprowadzonego przez NASK („AI w społeczeństwie i gospodarce. Raport z badań społecznych”) tylko 4 proc. Polaków nie zetknęło się dotychczas z pojęciem sztucznej inteligencji. Z kolei ponad połowa uważa, że AI już wpływa na ich codzienne życie w obszarach takich jak pozyskiwanie informacji, rozrywka, edukacja, zakupy czy transport.
Z badania wynika też, że wiedzę o sztucznej inteligencji Polacy czerpią najczęściej z telewizji, portali i stron www, mediów społecznościowych oraz filmów, seriali i książek popularnonaukowych.
Spodziewają się, że największymi korzyściami tej technologii będą przede wszystkim: poprawa komfortu życia (34 proc.), lepszy poziom cyberbezpieczeństwa (33 proc.), zmniejszenie liczby nieszczęśliwych wypadków w pracy (32,7 proc.) oraz wyższy poziom personalizacji produktów i usług (30,3 proc.). Średnio co czwarty Polak jest gotów korzystać z transportu bezzałogowego, a co szósty – z usług medycznych, w których rozwiązania oparte na AI zastępują lekarza.
Z drugiej strony polscy internauci obawiają się również, że wraz z rozwojem tej technologii ich prywatność będzie narażona na ciągłe śledzenie (60,5 proc.), bezrobocie wzrośnie (40,1 proc.), a cyberzagrożeń będzie coraz więcej (37,7 proc.).
ChatGPT to nie wszystko. AI wynalazkiem porównywalnym z maszyną parową
Sztuczna inteligencja w ciągu ostatnich kilku miesięcy przeżywa boom, głównie za sprawą ChatGPT – narzędzia SI wspieranego modelem językowym, opracowanego przez laboratorium badawcze OpenAI, które jest nazywane kamieniem milowym w rozwoju tej technologii. W połowie marca br. pojawił się jego znacznie ulepszony następca – ChatGPT4, który większość dotychczasowych użytkowników zgodnie nazywa rewolucją na miarę wynalezienia internetu czy maszyny parowej.
Debatę dotyczącą rozwoju tej technologii zdominowały jak na razie aspekty rozrywkowe i biznesowe, które zestawia się z potencjalnymi zagrożeniami. W tym kontekście mówi się na ogół o rynku pracy i ryzyku wyparcia z niego części zawodów.
Z drugiej strony wśród badaczy coraz częściej mówi się o koncepcji AI for social impact, czyli użyciu sztucznej inteligencji do rozwiązywania istotnych wyzwań w wymiarze społecznym. Algorytmy sztucznej inteligencji mogą być pomocne np. w detekcji i zwalczaniu szkodliwych i nielegalnych treści – hejtu, mowy nienawiści czy dziecięcej pornografii w internecie.
Naukowcy próbują też wykorzystać AI w medycynie, na wielu płaszczyznach: np. do rozpoznawania niebezpiecznych zmian skórnych czy wybierania narządów do przeszczepu. W przyszłości wykorzystanie algorytmów w tym obszarze będzie w coraz większym stopniu usprawniać pracę lekarzy i personelu medycznego oraz zmniejszać koszty związane z leczeniem.
Z kolei w Stanach Zjednoczonych już w tej chwili używa się ich np. do planowania patroli policyjnych, ponieważ algorytmy mogą wskazywać konkretne obszary, gdzie z dużym prawdopodobieństwem dojdzie do przestępstwa, np. w trakcie dużych wydarzeń sportowych.
Co ze źle działającymi algorytmami?
Problem wciąż tkwi jednak w danych dostarczanych algorytmom, co często prowadzi do zniekształceń. Dla przykładu według MIT Technology Review osoby czarnoskóre są narażone na zatrzymanie bez uzasadnionej przyczyny pięć razy bardziej niż białe. To pokazuje, że źle skonstruowane algorytmy mogą wzmacniać uprzedzenia i prowadzić do niepokojów społecznych.
Zdaniem ekspertów w przyszłości ta technologia będzie wymagać odpowiednio skonstruowanych regulacji i zapewnienia przejrzystości jej działania.
Jak wskazuje, UE pracuje obecnie nad nową regulacją – unijnym Aktem o sztucznej inteligencji (Artificial Intelligence Act), który ma wdrożyć precyzyjne regulacje dotyczące tej technologii. Jest to pierwsza na świecie próba kompleksowego uregulowania prawnego systemów AI i ich zastosowań, która może w przyszłości wywrzeć wpływ na ich rozwój i ustawodawstwo także w krajach poza Unią Europejską.