Departamenty rządowe w całej Afryce Południowej coraz częściej polegają na narzędziach cyfrowych w celu oceny programów publicznych i monitorowania wyników. Jest to część szerszegoDepartamenty rządowe w całej Afryce Południowej coraz częściej polegają na narzędziach cyfrowych w celu oceny programów publicznych i monitorowania wyników. Jest to część szerszego

Monitorowanie cyfrowe rośnie w południowoafrykańskiej służbie publicznej – regulacje muszą nadążyć

2026/02/16 12:49
6 min. lektury

Departamenty rządowe w całej Republice Południowej Afryki coraz częściej polegają na narzędziach cyfrowych do oceny programów publicznych i monitorowania wyników. Jest to część szerszych reform sektora publicznego. Ich celem jest poprawa odpowiedzialności, reagowanie na presję audytową oraz zarządzanie programami na dużą skalę przy ograniczonej liczbie pracowników i budżetach.

Oto przykład. Departamenty krajowe śledzące realizację budownictwa mieszkaniowego, dotacji socjalnych lub rozbudowy infrastruktury polegają na cyfrowych systemach wydajności, a nie na okresowych raportach papierowych. Pulpity nawigacyjne – sposób prezentowania danych wizualnych w jednym miejscu – zapewniają aktualizacje dotyczące świadczenia usług niemal w czasie rzeczywistym.

Innym przykładem jest wykorzystanie platform zbierających dane mobilne. Umożliwiają one urzędnikom pierwszej linii i wykonawcom bezpośrednie przesyłanie informacji z terenu.

Oba przykłady nadają się do wykorzystania sztucznej inteligencji (AI) do przetwarzania dużych zbiorów danych i generowania spostrzeżeń, których analiza wcześniej zajmowałaby miesiące.

Ta zmiana jest często przedstawiana jako krok naprzód w kierunku odpowiedzialności i efektywności w sektorze publicznym.

Jestem naukowcem zajmującym się polityką publiczną ze szczególnym zainteresowaniem monitorowaniem i oceną programów rządowych. Moje ostatnie badania pokazują niepokojący trend, że zwrot w kierunku technologii rozwija się znacznie szybciej niż ramy etyczne i zarządzania, które mają go regulować.

W badanych przeze mnie przypadkach narzędzia cyfrowe były już osadzone w rutynowych procesach monitorowania i oceny. Ale nie było jasnych standardów regulujących ich wykorzystanie.

Stwarza to zagrożenia związane z inwigilacją, wykluczeniem, niewłaściwym wykorzystaniem danych i słabym osądem zawodowym. Te zagrożenia nie są abstrakcyjne. Kształtują one sposób, w jaki obywatele doświadczają państwa, sposób obsługi ich danych i to, czyje głosy ostatecznie liczą się w decyzjach politycznych.

Gdy technologia wyprzedza politykę

Ocena sektora publicznego obejmuje ocenę programów i polityk rządowych. Określa, czy:

  • zasoby publiczne są wykorzystywane efektywnie
  • programy osiągają zamierzone rezultaty
  • obywatele mogą pociągnąć państwo do odpowiedzialności za wyniki.

Tradycyjnie te oceny opierały się na bezpośrednim kontakcie między społecznościami, ewaluatorami, rządem i innymi. Obejmowały one metody jakościowe, które pozwalały na niuanse, wyjaśnienia i budowanie zaufania.

Narzędzia cyfrowe to zmieniły.

W moich badaniach przeprowadziłem wywiady z ewaluatorami z rządu, organizacji pozarządowych, środowiska akademickiego, stowarzyszeń zawodowych i prywatnych firm konsultingowych. Stwierdziłem konsekwentny niepokój we wszystkich obszarach. Systemy cyfrowe są często wprowadzane bez wytycznych etycznych dostosowanych do praktyki oceny.

Wytyczne etyczne zapewniałyby jasne, praktyczne zasady dotyczące sposobu wykorzystywania narzędzi cyfrowych w ocenach. Na przykład podczas korzystania z pulpitów nawigacyjnych lub zautomatyzowanej analityki danych wytyczne powinny wymagać od ewaluatorów wyjaśnienia, w jaki sposób dane są generowane, kto ma do nich dostęp i w jaki sposób wyniki mogą wpłynąć na oceniane społeczności. Powinny również zapobiegać wykorzystywaniu systemów cyfrowych do monitorowania osób bez zgody lub do rankingowania programów w sposób ignorujący kontekst.

Południowoafrykańska ustawa o ochronie danych osobowych zapewnia ogólne ramy prawne ochrony danych. Ale nie odnosi się do konkretnych dylematów etycznych, które pojawiają się, gdy ocena staje się zautomatyzowana, oparta na chmurze i mediowana algorytmicznie.

Rezultat jest taki, że ewaluatorzy często pozostawiani są bez jasnych standardów w poruszaniu się po złożonym terenie etycznym. Zmusza to instytucje do polegania na precedensach, nieformalnych nawykach, wcześniejszych praktykach i domyślnych ustawieniach oprogramowania.

Pełzająca inwigilacja i niewłaściwe wykorzystanie danych

Platformy cyfrowe umożliwiają zbieranie dużych ilości danych. Po przesłaniu danych do systemów opartych na chmurze lub platform firm trzecich kontrola nad ich przechowywaniem, ponownym wykorzystaniem i udostępnianiem często przesuwa się z ewaluatorów na inne osoby.

Kilku ewaluatorów opisało sytuacje, w których dane zebrane przez nich w imieniu departamentów rządowych były później ponownie wykorzystywane przez departamenty lub inne agencje państwowe. Odbywało się to bez wyraźnej świadomości uczestników. Procesy wyrażania zgody w środowiskach cyfrowych są często zredukowane do jednego kliknięcia.

Przykłady innych zastosowań obejmowały inne formy analiz, raportowania lub monitorowania instytucjonalnego.

Jednym z zagrożeń etycznych, które wynikło z badań, było wykorzystanie tych danych do inwigilacji. Jest to wykorzystanie danych do monitorowania osób, społeczności lub pracowników pierwszej linii.

Wykluczenie cyfrowe i niewidzialne głosy

Narzędzia oceny cyfrowej są często przedstawiane jako rozszerzające zasięg i uczestnictwo. Ale w praktyce mogą wykluczać już marginalizowane grupy. Społeczności z ograniczonym dostępem do internetu, niskimi umiejętnościami cyfrowymi, barierami językowymi lub zawodną infrastrukturą są mniej skłonne do pełnego uczestnictwa w ocenach cyfrowych.

Zautomatyzowane narzędzia mają ograniczenia. Na przykład mogą mieć trudności z przetwarzaniem danych wielojęzycznych, lokalnych akcentów lub kulturowo specyficznych form wyrazu. Prowadzi to do częściowych lub zniekształconych reprezentacji przeżytego doświadczenia. Ewaluatorzy w moich badaniach widzieli, jak to dzieje się w praktyce.

To wykluczenie ma poważne konsekwencje, szczególnie w kraju z nierównościami takim jak Republika Południowej Afryki. Oceny, które w dużym stopniu opierają się na narzędziach cyfrowych, mogą uwzględniać miejskie, połączone populacje i sprawiać, że społeczności wiejskie lub nieformalne są statystycznie niewidzialne.

To nie jest jedynie ograniczenie techniczne. Kształtuje to, jakie potrzeby są rozpoznawane i czyje doświadczenia wpływają na decyzje polityczne. Jeśli dane oceny niedostatecznie reprezentują najbardziej wrażliwych, programy publiczne mogą wydawać się bardziej skuteczne, niż są w rzeczywistości. Maskuje to niepowodzenia strukturalne zamiast je rozwiązywać.

W moich badaniach niektóre oceny odnotowały pozytywne trendy wydajności pomimo tego, że ewaluatorzy zauważyli luki w zbieraniu danych.

Algorytmy nie są neutralne

Ewaluatorzy wyrazili również obawy dotyczące rosnącego autorytetu przyznawanego wynikom algorytmicznym. Pulpity nawigacyjne, zautomatyzowane raporty i analityka oparta na AI są często traktowane jako prawdziwy obraz. Dzieje się tak nawet wtedy, gdy są sprzeczne z wiedzą terenową lub zrozumieniem kontekstowym.

Na przykład pulpity nawigacyjne mogą pokazywać cel jako realizowany zgodnie z planem. Ale w przykładzie wizyty na miejscu ewaluatorzy mogą znaleźć wady lub niezadowolenie.

Kilku uczestników zgłosiło presję ze strony finansujących lub instytucji, aby polegać na analizie liczb.

Jednak algorytmy odzwierciedlają założenia, zbiory danych i priorytety osadzone w ich projekcie. Gdy są stosowane bezkrytycznie, mogą reprodukować uprzedzenia, nadmiernie upraszczać dynamikę społeczną i lekceważyć wgląd jakościowy.

Jeśli systemy cyfrowe dyktują, w jaki sposób dane muszą być zbierane, analizowane i raportowane, ewaluatorzy ryzykują, że staną się technikami, a nie niezależnymi profesjonalistami wykonującymi osąd.

Dlaczego Afryka potrzebuje etyki wrażliwej na kontekst

W całej Afryce krajowe strategie i polityki dotyczące technologii cyfrowych często w dużym stopniu czerpią z ram międzynarodowych. Są one opracowywane w bardzo różnych kontekstach. Globalne zasady etyki AI i zarządzania danymi stanowią przydatne punkty odniesienia. Ale nie odnoszą się odpowiednio do realiów nierówności, historycznej nieufności i nierównego dostępu cyfrowego w większości sektora publicznego Afryki.

Moje badania przekonują, że zarządzanie etyczne oceną cyfrową musi być wrażliwe na kontekst. Standardy muszą dotyczyć:

  • w jaki sposób uzyskiwana jest zgoda
  • kto jest właścicielem danych oceny
  • w jaki sposób narzędzia algorytmiczne są wybierane i audytowane
  • w jaki sposób chroniona jest niezależność ewaluatora.

Ramy etyczne muszą być osadzone na etapie projektowania systemów cyfrowych.The Conversation

Lesedi Senamele Matlala, wykładowca senior i badacz w zakresie polityki publicznej, monitorowania i ocen, Uniwersytet Johannesburski

Ten artykuł został ponownie opublikowany z The Conversation na licencji Creative Commons. Przeczytaj oryginalny artykuł.

Okazja rynkowa
Logo PUBLIC
Cena PUBLIC(PUBLIC)
$0.01492
$0.01492$0.01492
+0.40%
USD
PUBLIC (PUBLIC) Wykres Ceny na Żywo
Zastrzeżenie: Artykuły udostępnione na tej stronie pochodzą z platform publicznych i służą wyłącznie celom informacyjnym. Niekoniecznie odzwierciedlają poglądy MEXC. Wszystkie prawa pozostają przy pierwotnych autorach. Jeśli uważasz, że jakakolwiek treść narusza prawa stron trzecich, skontaktuj się z service@support.mexc.com w celu jej usunięcia. MEXC nie gwarantuje dokładności, kompletności ani aktualności treści i nie ponosi odpowiedzialności za jakiekolwiek działania podjęte na podstawie dostarczonych informacji. Treść nie stanowi porady finansowej, prawnej ani innej profesjonalnej porady, ani nie powinna być traktowana jako rekomendacja lub poparcie ze strony MEXC.