willow-1516877_640.jpg

Najnowszy „Monitoring trendów w innowacyjności” pokazuje wyraźny zwrot w kierunku zrównoważonego rozwoju i uwzględniania w planach wzrostu dobra klimatu. Światowe gospodarki ogłaszają również zwiększenie digitalizacji procesów związanych z administracją państwową i biznesem. Wszystko to będzie szło w parze ze wzmacnianiem bezpieczeństwa cyfrowego.

Polska Agencja Rozwoju Przedsiębiorczości (PARP) opublikowała raport „Monitoring trendów w innowacyjności”, zrealizowany w ramach projektu inno_LAB, który jest częścią działań z zakresu Monitoringu Narodowych Systemów Innowacji (NSI).


images_RECE_stockxpertcom_id290404_730.jpg

W ostatnim czasie rząd przeznaczył ogromne środki na rozwój szkół. – Rząd przeznaczył duże środki na cyfryzację szkół, na dostęp do szerokopasmowego internetu. Te działania oraz inwestycje w infrastrukturę szkolną miały ogromne znaczenie w trakcie nauki zdalnej w czasie pandemii – mówiła wiceminister MEiN Marzena Machałek.

Sekretarz Stanu w MEiN wskazała, że MEiN realizuje wiele projektów związanych z edukacją cyfrową. Jednym z nich są „Laboratoria Przyszłości”. – To inicjatywa ministra Przemysława Czarnka. Nie było takiej inwestycji w historii edukacji, która byłaby tak znacząca i zrealizowana w tak szybkim tempie, z której by skorzystało prawie 100 proc. szkół – dodała wiceminister Marzena Machałek.

„Laboratoria Przyszłości”

 „Laboratoria Przyszłości” to inicjatywa realizowana przez Ministerstwo Edukacji i Nauki oraz Centrum GovTech. W ramach tego przedsięwzięcia szkoły podstawowe w całej Polsce otrzymują środki na zakup wyposażenia służącego do rozwijania kompetencji przyszłości, takich jak współpraca, kreatywność, umiejętność rozwiązywania problemów czy znajomość nowych technologii. Łącznie na ten cel rząd przeznaczy ok 1 mld zł. Projekt jest realizowany w ramach „Polskiego Ładu”. Obecnie z programu korzysta ponad 99 proc. uprawnionych szkół publicznych.

Dzięki programowi do każdej szkoły podstawowej w Polsce trafi nowoczesny sprzęt: drukarki 3D, mikrokontrolery, stacje lutownicze, sprzęt do nagrań oraz wyposażenie dodatkowe. Łącznie z „Laboratoriów Przyszłości” skorzysta 3 mln uczniów.

Wzrost nakładów na cyfryzację szkół

W ostatnich latach nakłady finansowe na cyfryzację szkół wyniosły ok. 8 mld zł. Środki te były przeznaczone m.in. na rozwój infrastruktury szkolnej oraz inne przedsięwzięcia. Jednym z nich jest Ogólnopolska Sieć Edukacyjna, czyli szybki i bezpieczny internet o przepustowości 100 Mb/s. Do projektu przyłączyło się już ponad 90 proc. uprawnionych szkół.

Zwiększenie nakładów na edukację cyfrową było związane także z kształceniem na odległość. Z dodatkowych środków finansowych skorzystali m.in. nauczyciele, którzy otrzymali dofinansowanie na zakup komputerów, tabletów i innych akcesoriów do nauki zdalnej.

Ministerstwo Edukacji i Nauki stale rozwija także Zintegrowaną Platformę Edukacyjną. To kompleksowe środowisko nauczania – uczenia się z bazą prawie 10 tys. bezpłatnych e-materiałów do kształcenia ogólnego, zawodowego i edukacji włączającej. W szczycie popularności platformy zarejestrowano rekordową liczbę 4,5 mln odsłon dziennie. Obecnie na platformie znajduje się ok. 8 mln kont użytkowników.

Źródło: Ministerstwo Edukacji i Nauki



Zapewnienie rozwoju sztucznej inteligencji w sposób gwarantujący poszanowanie praw człowieka i zdobycie zaufania ludzi, stanowi jeden z elementów unijnej strategii cyfrowej[1]. Dnia 21.04.2021 r. Komisja Europejska opublikowała projekt rozporządzenia ustanawiającego zharmonizowane przepisy dotyczące sztucznej inteligencji (akt w sprawie sztucznej inteligencji)[2], którego celem jest jednolite uregulowanie kwestii opracowywania, wprowadzania do obrotu i wykorzystywania systemów sztucznej inteligencji (Artificial Intelligence, AI) na obszarze UE.

Ma ono stanowić ramy prawne dla prawidłowo funkcjonującego rynku wewnętrznego systemów AI, na którym odpowiednio uwzględnia się zarówno korzyści społeczno-ekonomiczne, jak i zagrożenia, jakie niesie za sobą wykorzystanie sztucznej inteligencji, stworzyć sprzyjające warunki dla innowacji i rozwoju technologii AI, przy jednoczesnym zapewnieniu wysokiego poziomu bezpieczeństwa użytkowników i ochrony praw podstawowych gwarantowanych przez prawo unijne.

Przyjęcie wspólnej na poziomie UE regulacji ma również sprzyjać swobodnemu przepływowi towarów i usług wykorzystujących sztuczną inteligencję. Uniemożliwienie poszczególnym państwom członkowskim ustanawiania własnych ograniczeń i wymagań dotyczących takich produktów i usług z jednej strony zapobiec ma fragmentacji rynku wewnętrznego w tym zakresie, a z drugiej zapewnić dostawcom i użytkownikom systemów AI pewność prawa,  ułatwiając inwestycje i innowacje w dziedzinie sztucznej inteligencji. Nowe rozporządzenie wspierać ma realizację celu, jakim jest osiągnięcie przez Unię pozycji światowego lidera w rozwoju bezpiecznej, wiarygodnej i etycznej sztucznej inteligencji.

Projekt rozporządzenia jest efektem wcześniejszych działań UE w obszarze AI, obejmujących opublikowanie w 2018 r. strategii „Sztuczna inteligencja dla Europy”[3] i pierwszego skoordynowanego planu wspierania rozwoju i stosowania sztucznej inteligencji[4], opracowanie w 2019 r. wytycznych dotyczących wiarygodnej sztucznej inteligencji[5] oraz publikację w 2020 r. białej księgi w sprawie sztucznej inteligencji[6], której założenia stanowią podstawę projektu. Wraz z projektem aktu w sprawie sztucznej inteligencji ogłoszono również nowy, przygotowany we współpracy z państwami członkowskimi, skoordynowany plan działania[7].

Obecnie projekt rozporządzenia jest przedmiotem prac Parlamentu Europejskiego. Zgodnie z jego aktualnym brzmieniem, rozporządzenie ma być stosowane w państwach członkowskich po upływie 2 lat od jego wejścia w życie (dwudziesty dzień po publikacji w Dzienniku Urzędowym Unii Europejskiej).

Kogo dotyczyć będą nowe przepisy?

Projektowane rozporządzenie będzie miało wpływ na działalność szerokiego kręgu podmiotów opracowujących, wprowadzających do obrotu oraz wykorzystujących systemy sztucznej inteligencji, przede wszystkim dostawców i użytkowników systemów AI, ale również importerów, dystrybutorów czy upoważnionych przedstawicieli (podmiotów z siedzibą w UE upoważnionych przez dostawcę z kraju trzeciego do realizacji w jego imieniu obowiązków i procedur określonych w rozporządzeniu).

Kluczowe, najszersze obowiązki  związane z zapewnieniem bezpiecznej i wiarygodnej sztucznej inteligencji spoczywać będą na dostawcach i użytkownikach systemów i to nie tylko tych mających siedzibę w Unii Europejskiej – nowe rozporządzenie będzie miało bowiem zastosowanie również do wszystkich dostawców spoza UE, którzy wprowadzają do obrotu lub oddają do użytku systemy AI na obszarze Unii, a także do dostawców oraz użytkowników znajdujących się poza UE, jeżeli wyniki działania danego systemu są wykorzystywane w UE.

Czym jest sztuczna inteligencja?

Projektowana regulacja definiuje system sztucznej inteligencji jako oprogramowanie opracowane przy użyciu co najmniej jednej spośród technik i podejść wymienionych w załączniku I do rozporządzenia, które może – dla danego zestawu celów określonych przez człowieka – generować wyniki, takie jak treści, przewidywania, zalecenia lub decyzje wpływające na środowiska, z którymi wchodzi w interakcję. Katalog technik i podjeść determinujących kwalifikację danego oprogramowania jako sztucznej inteligencji jest dość szeroki i obejmuje:

  • mechanizmy uczenia maszynowego, w tym uczenie nadzorowane, uczenie się maszyn bez nadzoru i uczenie przez wzmacnianie, z wykorzystaniem szerokiej gamy metod, w tym uczenia głębokiego;
  • metody oparte na logice i wiedzy, w tym reprezentacja wiedzy, indukcyjne (logiczne) programowanie, bazy wiedzy, silniki inferencyjne i dedukcyjne, rozumowanie (symboliczne) i systemy ekspertowe;
  • podejścia statystyczne, estymację bayesowską, metody wyszukiwania i optymalizacji.

Projekt zakłada możliwość aktualizacji powyższego wykazu z uwzględnieniem rozwoju sytuacji rynkowej i rozwoju technologicznego, w drodze aktów delegowanych przyjmowanych przez Komisję.

Podejście oparte na analizie ryzyka

Proponowane ramy prawne dla sztucznej inteligencji bazują na wyodrębnieniu czterech kategorii systemów AI, w zależności od poziomu ryzyka jakie stwarza ich zastosowanie, tj. ryzyka niedopuszczalnego, wysokiego, ograniczonego i minimalnego:

Ryzyko niedopuszczalne

Systemy sztucznej inteligencji sprzeczne z unijnymi wartościami poszanowania godności ludzkiej, wolności, równości, demokracji i praworządności oraz z prawami podstawowymi Unii, w tym z prawem do niedyskryminacji, ochrony danych i prywatności oraz z prawami dziecka, stwarzające wyraźne zagrożenie dla bezpieczeństwa, źródeł utrzymania i praw obywateli, uznane zostały za niedopuszczalne. Katalog zakazanych praktyk w dziedzinie sztucznej inteligencji obejmuje wprowadzanie do obrotu, oddawanie do użytku lub wykorzystywanie systemów AI:

  • służących do manipulowania ludźmi, czyli takich, w których stosuje się techniki podprogowe działające na podświadomość lub wykorzystuje słabości pewnych grup osób, takich jak dzieci, osoby z niepełnosprawnościami czy zaburzeniami psychicznymi, w celu istotnego zniekształcenia zachowania danej osoby w sposób, który powoduje lub może powodować u tej osoby lub u innej osoby szkodę fizyczną lub psychiczną;
  • używanych przez organy publiczne lub w ich imieniu na potrzeby oceny lub klasyfikacji wiarygodności osób fizycznych, prowadzonej przez określony czas na podstawie ich zachowania społecznego lub znanych bądź przewidywanych cech osobistych lub cech osobowości (tzw. social scoring), kiedy punktowa ocena społeczna prowadzi do krzywdzącego lub niekorzystnego traktowania niektórych osób fizycznych lub całych ich grup w kontekstach społecznych, które nie są związane z kontekstami, w których pierwotnie wygenerowano lub zgromadzono dane lub w przypadku, gdy takie traktowanie jest nieuzasadnione lub nieproporcjonalne do zachowania społecznego lub jego wagi.

Ponadto zakazane będzie wykorzystywanie systemów zdalnej identyfikacji biometrycznej „w czasie rzeczywistym” w przestrzeni publicznej do celów egzekwowania prawa. Chodzi tutaj o systemy służące do identyfikacji osób fizycznych na odległość poprzez porównanie ich danych biometrycznych (np. wizerunku twarzy, chodu, zarysu sylwetki)  z danymi biometrycznymi zawartymi w referencyjnej bazie danych, gdzie zbieranie danych, ich porównywanie i identyfikacja odbywają się bez znacznego opóźnienia (w celu uniknięcia obchodzenia przepisów, za taki system identyfikacji biometrycznej „w czasie rzeczywistym”, uznawany będzie system, w którym identyfikacja następuje zarówno natychmiast, jak i  z niewielkim opóźnieniem). Od tego zakazu projekt rozporządzenia przewiduje ograniczone wyjątki, obejmujące:

  • ukierunkowane poszukiwanie ofiar przestępstw, w tym zaginionych dzieci;
  • zapobieganie konkretnemu, poważnemu i bezpośredniemu zagrożeniu życia lub bezpieczeństwa osób fizycznych lub atakowi terrorystycznemu;
  • wykrywanie, lokalizowanie, identyfikowanie lub ściganie sprawców lub podejrzanych o popełnienie najcięższych przestępstw, takich jak np. udział w organizacji przestępczej, terroryzm, handel ludźmi, zabójstwo, gwałt czy pornografia dziecięca[8], które w danym państwie członkowskim podlegają karze pozbawienia wolności lub środkowi zabezpieczającemu polegającemu na pozbawieniu wolności przez okres, którego górna granica wynosi co najmniej trzy lata.

Każde pojedyncze wykorzystanie systemu zdalnej identyfikacji biometrycznej „w czasie rzeczywistym” w przestrzeni publicznej do celów egzekwowania prawa, wymagać będzie, co do zasady, uzyskania uprzedniego zezwolenia udzielonego przez sąd lub niezależny organ administracyjny państwa członkowskiego. Decyzja co do wykorzystywania tego typu systemów, należeć będzie do państw członkowskich – będą one mogły w ogóle nie przewidzieć takiej możliwości albo przewidzieć ją jedynie w odniesieniu do niektórych spośród wskazanych wyżej dozwolonych celów. W przypadku podjęcia decyzji o dopuszczeniu możliwości wykorzystywania systemów zdalnej identyfikacji biometrycznej „w czasie rzeczywistym” w przestrzeni publicznej do celów egzekwowania prawa, dane państwo zobowiązane będzie do przyjęcia niezbędnych szczegółowych przepisów krajowych, regulujących wydawanie i wykonywanie zezwoleń na wykorzystanie systemów oraz ich nadzorowanie.

Wysokie ryzyko

Systemy sztucznej inteligencji wysokiego ryzyka, to systemy stanowiące znaczne zagrożenie dla zdrowia i bezpieczeństwa lub praw podstawowych osób w Unii Europejskiej. Jest to kluczowa kategoria, na której przede wszystkim skupia się projekt rozporządzenia, określając zasady klasyfikacji systemów AI jako systemów wysokiego ryzyka, wymogi dotyczące wiarygodnej sztucznej inteligencji, jakie systemy wysokiego ryzyka muszą spełniać oraz obowiązki spoczywające na dostawcach i użytkownikach takich systemów.

Przyjęta w rozporządzeniu klasyfikacja systemów wysokiego ryzyka, wyróżnia ich dwie grupy. Po pierwsze, biorąc pod uwagę, że projektowane ramy regulacyjne dla sztucznej inteligencji wysokiego ryzyka wpisują się w system unijnego prawodawstwa harmonizacyjnego w obszarze warunków wprowadzania produktów do obrotu, z systemem AI wysokiego ryzyka będziemy mieli do czynienia, gdy:

  • system AI jest przeznaczony do użycia jako związany z bezpieczeństwem element produktu (safety component) lub sam jest produktem objętym unijnymi przepisami harmonizacyjnymi wymienionymi w załączniku II do rozporządzenia (są to w szczególności dyrektywy i rozporządzenia oparte na nowych ramach prawnych[9], dotyczące produktów takich jak maszyny, zabawki, wyroby medyczne, windy czy środki ochrony indywidualnej),
    i jednocześnie:
  • produkt, którego związanym z bezpieczeństwem elementem jest system AI lub sam system AI jako produkt podlega na podstawie wyżej wskazanych przepisów harmonizacyjnych ocenie zgodności przeprowadzanej przez osobę trzecią w celu wprowadzenia tego produktu do obrotu lub oddania go do użytku.

Druga grupa obejmuje zastosowania AI, które Komisja obecnie uznaje za obarczone wysokim ryzykiem, wymienione w załączniku III do rozporządzenia, tj. systemy wykorzystywane w następujących obszarach:

  • identyfikacja i kategoryzacja biometryczna osób fizycznych: systemy przeznaczone do zdalnej identyfikacji biometrycznej osób fizycznych zarówno „w czasie rzeczywistym”, jak i „post factum”;
  • zarządzanie infrastrukturą krytyczną i jej eksploatacja: systemy przeznaczone do stosowania jako związane z bezpieczeństwem elementy procesów zarządzania i obsługi ruchu drogowego oraz zaopatrzenia w wodę, gaz, ciepło i energię elektryczną;
  • kształcenie i szkolenie zawodowe: systemy przeznaczone do stosowania w celu podejmowania decyzji o dostępie do instytucji edukacyjnych i instytucji szkolenia zawodowego, oceny uczniów lub uczestników egzaminów wymaganych w celu przyjęcia do instytucji edukacyjnych;
  • zatrudnienie, zarządzanie pracownikami i dostęp do samozatrudnienia: systemy przeznaczone do wykorzystania w celu rekrutacji lub wyboru osób fizycznych (np. na potrzeby informowania o wakatach, oceny kandydatów w trakcie rozmów kwalifikacyjnych), podejmowania decyzji o awansie i rozwiązaniu stosunku pracy, przydzielania zadań oraz monitorowania i oceny wydajności i zachowania pracowników;
  • dostęp do podstawowych usług prywatnych oraz usług i świadczeń publicznych, a także korzystanie z nich: systemy przeznaczone do wykorzystania przez organy publiczne w celu oceny kwalifikowalności osób fizycznych do świadczeń i usług publicznych, jak również w celu przyznawania, ograniczania, unieważniania lub żądania zwrotu takich świadczeń i usług, systemy wykorzystywane do oceny zdolności kredytowej osób fizycznych lub ustalenia ich punktowej oceny kredytowej, systemy przeznaczone do wykorzystania w celu wysyłania lub ustalania priorytetów w wysyłaniu służb ratunkowych w sytuacjach kryzysowych, w tym straży pożarnej i pomocy medycznej;
  • ściganie przestępstw: m.in. systemy przeznaczone do wykorzystania przez organy ścigania w celu przeprowadzania indywidualnych ocen ryzyka w odniesieniu do osób fizycznych (ryzyko popełnienia lub ponownego popełnienia przestępstwa przez osobę fizyczną lub ryzyko, na jakie narażone są potencjalne ofiary przestępstw), systemy przeznaczone do wykorzystania jako poligrafy i podobne narzędzia lub w celu wykrywania stanu emocjonalnego, systemy przeznaczone do oceny wiarygodności dowodów w toku ścigania przestępstw, systemy przeznaczone do profilowania osób fizycznych;
  • zarządzanie migracją, azylem i kontrolą graniczną: m.in. systemy wykorzystywane przy rozpatrywaniu wniosków o udzielenie azylu, o wydanie wizy i dokumentów pobytowych oraz związanych z nimi skarg w odniesieniu do kwalifikowalności osób fizycznych ubiegających się o przyznanie określonego statusu;
  • sprawowanie wymiaru sprawiedliwości i procesy demokratyczne: systemy wykorzystywane w badaniu i interpretacji stanu faktycznego i przepisów prawa oraz w stosowaniu prawa do konkretnego stanu faktycznego.

Projekt rozporządzenia przewiduje możliwość dodawania do załącznika III, w drodze aktów delegowanych przyjmowanych przez Komisję, kolejnych systemów wysokiego ryzyka przeznaczonych do wykorzystania w wyżej wskazanych obszarach i określa szczegółowe kryteria, którymi Komisja ma się kierować w tym zakresie.

Wymogi dotyczące systemów wysokiego ryzyka oraz obowiązki dostawców i użytkowników zostaną bliżej omówione w dalszej części artykułu.

Ograniczone ryzyko

W odniesieniu do niektórych systemów sztucznej inteligencji, biorąc pod uwagę specyficzne ryzyko manipulacji jakie stwarzają, projekt rozporządzenia przewiduje wyłącznie minimalne obowiązki dotyczące przejrzystości. Mają one zastosowanie do trzech grup systemów AI, tj. takich, które:

  • wchodzą w interakcję z ludźmi (czyli wszelkiego rodzaju chatboty) – obowiązek informowania osoby fizycznej o tym, że wchodzi ona w interakcję z systemem AI, chyba że będzie to jednoznacznie wynikać z okoliczności i kontekstu korzystania z systemu;
  • są wykorzystywane do wykrywania emocji lub określania powiązań z kategoriami (społecznymi) na podstawie danych biometrycznych – obowiązek informowania osób fizycznych o fakcie stosowania wobec nich tego typu systemów;
  • generują obrazy, treści dźwiękowe lub treści wideo, które łudząco przypominają istniejące osoby, miejsca, obiekty czy zdarzenia, lub które manipulują obrazami lub treściami, przez co osobie będącej ich odbiorcą mogą się one fałszywie wydać autentyczne lub prawdziwe (technologia deepfake) – obowiązek ujawniania, że treści zostały wygenerowane lub zmanipulowane przez system AI.

Powyższe obowiązki nie będą jednak dotyczyć:

  • systemów, które zostały zatwierdzone na mocy przepisów prawa do celów związanych z egzekwowaniem prawa, tj. przeciwdziałaniem i ściganiem przestępstw.
  • sytuacji, gdy zastosowanie technologii deepfake będzie konieczne do wykonywania prawa do wolności wypowiedzi i prawa do wolności sztuki i nauki zagwarantowanych w Karcie praw podstawowych Unii Europejskiej (z zastrzeżeniem odpowiednich gwarancji zabezpieczających prawa i wolności osób trzecich).

Minimalne ryzyko

Wszystkie pozostałe systemy AI, stanowiące większość spośród obecnie używanych na terenie UE, np. systemy stosowane w grach wideo lub filtrach spamu, jako nie stwarzające zagrożenia dla praw lub bezpieczeństwa obywateli lub stwarzające zagrożenie minimalne, nie będą podlegać żadnym szczególnym wymaganiom i obowiązkom. W odniesieniu do takich systemów, projektowane rozporządzenie obliguje Komisję Europejska i państwa członkowskie do zachęcania i ułatwiania tworzenia przez branżę AI kodeksów postępowania, na podstawie których dostawcy dobrowolnie stosowaliby wymogi obligatoryjne przewidziane w rozporządzeniu dla systemów sztucznej inteligencji wysokiego ryzyka.

Wymogi dla systemów sztucznej inteligencji wysokiego ryzyka

Jak wyżej wspomniano, projektowana regulacja skupia się na systemach wysokiego ryzyka, ustanawiając szereg rygorystycznych wymagań, których spełnienie warunkuje dopuszczalność wykorzystywania takich systemów w Unii Europejskiej (ewentualnie wykorzystywania w UE wyników ich działania, w przypadku gdy dostawca lub użytkownik systemu znajduje się w państwie trzecim). Obejmują one:

  • wdrożenie i utrzymywanie systemu zarządzania ryzykiem obejmującego identyfikację i analizę znanego i dającego się przewidzieć ryzyka, oszacowanie i ocenę ryzyka, przyjęcie odpowiednich środków zarządzania ryzykiem;
  • w przypadku stosowania technik obejmujących trenowanie modeli, zapewnienie wysokiej jakości zbiorów danych treningowych, walidacyjnych i testowych, aby system działał zgodnie z przeznaczeniem i bezpiecznie oraz aby nie stał się źródłem dyskryminacji – zbiory takich danych powinny być wystarczająco adekwatne, reprezentatywne i wolne od błędów oraz kompletne z punktu widzenia przeznaczenia systemu, jak również powinny charakteryzować się odpowiednimi właściwościami statystycznymi, w tym w odniesieniu do osób lub grup osób, wobec których system ma być wykorzystywany, a także powinny uwzględniać cechy, właściwości lub elementy, które są specyficzne dla określonego kontekstu geograficznego, behawioralnego lub funkcjonalnego lub okoliczności, w których system ma być wykorzystywany;
  • sporządzanie i aktualizowanie dokumentacji technicznej systemu (szczegółowy wykaz informacji, które powinna zawierać dokumentacja zawarto w załączniku IV do rozporządzenia);
  • automatyczne rejestrowanie zdarzeń – systemy wysokiego ryzyka muszą posiadać funkcję prowadzenia rejestrów zdarzeń (logów) zapewniającą odpowiednią do ich przeznaczenia identyfikowalność działania w całym cyklu życia systemu, tak aby możliwe było jego monitorowanie pod kątem występowania sytuacji skutkujących ryzykiem zagrożenia dla zdrowia i bezpieczeństwa lub praw podstawowych obywateli lub mogących prowadzić do wystąpienia istotnej zmiany;
  • przejrzystość i udostępnianie informacji użytkownikom – aby zapobiec tzw. efektowi czarnej skrzynki (black box) powodującemu, że niektóre systemy sztucznej inteligencji mogą stać się niezrozumiałe lub zbyt skomplikowane dla osób fizycznych, działanie systemów AI wysokiego ryzyka musi być wystarczająco przejrzyste, aby użytkownicy byli w stanie interpretować wyniki działania systemu i odpowiednio z nich korzystać; w tym celu rozporządzenie wprowadza wymóg sporządzenia instrukcji obsługi, zawierającej m.in. informacje dotyczące cech, możliwości i ograniczeń skuteczności działania sytemu, poziomu i wskaźników dokładności oraz środków nadzoru ze strony człowieka;
  • nadzór ze strony człowieka – systemy AI wysokiego ryzyka muszą być skonstruowane tak, aby zapewniony był skuteczny nadzór nad nimi ze strony ludzi; wprowadzone w tym celu środki (wbudowane bezpośrednio w system przez dostawcę lub zdefiniowane przez dostawcę odpowiednie do wdrożenia przez użytkownika) muszą umożliwiać osobom nadzorującym m.in.: należyte monitorowanie działania systemu, tak, aby wszelkie nieprawidłowości w jego funkcjonowaniu czy nieoczekiwane wyniki można było jak najszybciej wykrywać i eliminować, podjęcie decyzji o nieskorzystaniu z systemu w danej sytuacji, zignorowanie lub odwrócenie otrzymanych wyników, ingerencję w działanie systemu lub przerwanie jego działania poprzez użycie przycisku „stop” czy inną podobną procedurę;
  • dokładność, solidność i cyberbezpieczeństwo – systemy sztucznej inteligencji wysokiego ryzyka muszą, w kontekście ich przeznaczenia, osiągać odpowiedni poziom dokładności, solidności i cyberbezpieczeństwa i działać z zachowaniem tego poziomu przez cały cykl życia, muszą być odporne na błędy, usterki lub niespójności mogące wystąpić zarówno w samym systemie, jak i w środowisku w którym działa; w szczególności systemy, które po rozpoczęciu użytkowania nadal się uczą powinny być opracowane w taki sposób, aby przeciwdziałać ewentualnym tendencyjnym wynikom działania spowodowanym „sprzężeniem zwrotnym”, tj. wykorzystywaniem uzyskanych wyników jako danych wejściowych do następnych operacji.

Obowiązki dostawców i użytkowników systemów AI wysokiego ryzyka, ocena zgodności i oznakowanie CE

Dostawcy systemów sztucznej inteligencji wysokiego ryzyka, czyli wszelkie podmioty, które opracowują takie systemy lub zlecają ich opracowanie w celu wprowadzenia do obrotu lub oddania do użytku pod własną marką, zobowiązani będą do zapewnienia, aby spełniały one ustanowione w rozporządzeniu wymogi. W tym celu każdy dostawca będzie musiał wdrożyć system zarządzania jakością, obejmujący w szczególności:

  • techniki i procedury dotyczące projektowania systemu AI wysokiego ryzyka;
  • techniki i procedury na potrzeby opracowywania, kontroli jakości i zapewniania jakości systemu;
  • procedury badania, testowania i walidacji, które należy przeprowadzić przed rozpoczęciem opracowywania systemu, w trakcie tego procesu i po jego zakończeniu;
  • systemy i procedury zarzadzania danymi;
  • system zarządzania ryzykiem;
  • system monitorowania systemu po wprowadzeniu do obrotu;
  • procedury dotyczące zgłaszania poważnych incydentów i nieprawidłowego działania systemów właściwym organom nadzoru rynku.

Na dostawcach systemów AI wysokiego ryzyka spoczywał będzie również obowiązek sporządzania dokumentacji technicznej systemu, przechowywania rejestrów zdarzeń (jeżeli znajdują się pod ich kontrolą), monitorowania systemu po wprowadzeniu do obrotu, a także podejmowania działań naprawczych, w przypadku gdy system nie będzie spełniał wymogów, oraz informowania właściwych organów o niezgodności z wymogami i o podjętych działaniach naprawczych.

Biorąc pod uwagę, że projektowane przepisy harmonizacyjne dla systemów AI wysokiego ryzyka odpowiadają modelowi przewidzianemu w nowych ramach prawnych, przed wprowadzeniem systemu do obrotu lub oddaniem go do użytkowania dostawca zobowiązany będzie do:

  • przeprowadzenia odpowiedniej procedury oceny zgodności – w przypadku systemów wymienionych w załączniku III do rozporządzenia, co do zasady będzie to ocena opierająca się na kontroli wewnętrznej (kontroli przeprowadzanej przez samego dostawcę), jedynie dla systemów zdalnej identyfikacji biometrycznej (zarówno w czasie rzeczywistym, jak i „post factum”) przewidziano procedurę oceny zgodności z udziałem jednostki notyfikowanej; w przypadku systemów stanowiących związane z bezpieczeństwem elementy produktów objętych unijnym prawodawstwem harmonizacyjnym wchodzącym w zakres nowych ram prawnych lub systemów będących takimi produktami (przepisy wymienione w załączniku II sekcja A, dotyczące produktów takich jak np. zabawki, wyroby medyczne, maszyny), zgodność z wymogami dla systemów AI wysokiego ryzyka sprawdzana będzie w ramach procedur oceny właściwych dla tych produktów, określonych w ww. przepisach wchodzących w zakres nowych ram prawnych;
  • sporządzenia dla systemu deklaracji zgodności UE – sporządzając deklarację dostawca będzie brał na siebie odpowiedzialność za zgodność z wymogami dla systemów AI wysokiego ryzyka ustanowionych w rozporządzeniu; jeżeli system sztucznej inteligencji wysokiego ryzyka podlegać będzie innemu unijnemu prawodawstwu harmonizacyjnemu, w którym również przewidziano wymóg sporządzenia deklaracji zgodności UE, na potrzeby wszystkich aktów prawa Unii mających zastosowanie do systemu sztucznej inteligencji wysokiego ryzyka sporządzana będzie jedna deklaracja zgodności UE;
  • opatrzenia systemu oznakowaniem CE – oznakowanie CE będzie musiało zostać umieszczone na systemie w sposób widoczny, czytelny i trwały; jeżeli jednak z uwagi na charakter systemu oznakowanie w powyższy sposób nie będzie możliwe lub uzasadnione, oznakowanie będzie umieszczane na opakowaniu lub w dokumentacji towarzyszącej systemowi.

W przypadku systemów AI wysokiego ryzyka wyszczególnionych w załączniku III, do obowiązków dostawców należała będzie także rejestracja systemu w specjalnie utworzonej w tym celu przez Komisję Europejską, publicznie dostępnej unijnej bazie danych.  Dane dotyczące systemów wprowadzane będą do bazy bezpośrednio przez dostawców, a rolą Komisji, pełniącej funkcję administratora bazy, będzie udzielanie im w tym zakresie wsparcia technicznego i administracyjnego.

Z kolei do obowiązków użytkowników systemów AI wysokiego ryzyka należeć będą:

  • użytkowanie systemu zgodnie z instrukcją obsługi;
  • zapewnienie adekwatności danych wejściowych w odniesieniu do przeznaczenia systemu, w zakresie w jakim użytkownik sprawuje kontrolę nad danymi wejściowymi;
  • monitorowanie działania systemu w oparciu o instrukcję obsługi;
  • w przypadku stwierdzenie okoliczności wskazujących, że użytkowanie systemu zgodnie z instrukcją może doprowadzić do powstania ryzyka zagrożenia dla zdrowia i bezpieczeństwa lub praw podstawowych obywatel, poinformowanie o tym fakcie dostawcy lub dystrybutora i wstrzymanie użytkowania systemu;
  • zgłaszanie dostawcy lub dystrybutorowi wszelkich stwierdzonych przez siebie poważnych incydentów lub przypadków nieprawidłowego działania zaprzestanie użytkowania systemu;
  • przechowywanie generowanych automatycznie rejestrów zdarzeń, w zakresie, w jakim te rejestry znajdują się pod kontrolą użytkownika.

Kary za nieprzestrzeganie rozporządzenia

Projekt rozporządzenia obliguje państwa członkowskie do przyjęcia krajowych przepisów ustanawiających kary pieniężne za naruszenie jego przepisów. Wysokość kar ma być uzależniona od rodzaju naruszenia i wynieść może:

  • do 30 mln euro lub, w odniesieniu do przedsiębiorstw, do 6% całkowitego rocznego światowego obrotu za poprzedni rok obrotowy, za nieprzestrzeganie zakazu stosowania systemów niedozwolonych w UE oraz niedopełnienie wymogów dotyczących używania wysokiej jakości danych do trenowania i testowania systemów wysokiego ryzyka;
  • do 20 mln euro lub, w odniesieniu do przedsiębiorstw, do 4% całkowitego rocznego światowego obrotu za poprzedni rok obrotowy, za niezgodność systemu AI z jakimikolwiek innymi niż wskazane powyżej wymogami;
  • do 10 mln euro lub, w odniesieniu do przedsiębiorstw, do 2% całkowitego rocznego światowego obrotu za poprzedni rok obrotowy, za udzielenie właściwymi organom krajowym nieprawidłowych, niekompletnych lub wprowadzających w błąd informacji.

Krajowe organy nadzorcze i Europejska Rada ds. Sztucznej Inteligencji

W celu zapewnienia wdrożenia i stosowania przepisów rozporządzenia, państwa członkowskie zobowiązane będą do ustanowienia lub wyznaczenia właściwych organów krajowych, które pełnić będą funkcje:

  • krajowego organu nadzorczego, odpowiedzialnego za wdrożenie i stosowanie Aktu w sprawie sztucznej inteligencji, pełnienie funkcji punktu kontaktowego w kontaktach z Komisją oraz reprezentującego państwo członkowskie w Europejskiej Radzie ds. Sztucznej Inteligencji;
  • organu nadzoru rynku, tj. organu prowadzącego działania i stosującego środki nadzoru rynku zgodnie z rozporządzeniem (UE) 2019/1020[10];
  • organu notyfikującego, czyli organu odpowiadającego za opracowanie i stosowanie procedur koniecznych do oceny, wyznaczania i notyfikowania jednostek oceniających zgodność (jednostek notyfikowanych) oraz ich monitorowanie.

Co do zasady wszystkie trzy wyżej wymienione funkcje realizować ma w każdym państwie jeden organ krajowy, dopuszczalne będzie jednak ich rozdzielenie pomiędzy różne organy, jeżeli przemawiać będą za tym względy organizacyjne i administracyjne.

Na szczeblu unijnym utworzona zostanie nowa instytucja –  Europejska Rada ds. Sztucznej Inteligencji, w skład której wejdą osoby kierujące krajowymi organami nadzorczymi oraz Europejski Inspektor Ochrony Danych, będąca organem doradczym i wspierającym Komisję Europejską w obszarze AI, w tym poprzez:

  • gromadzenie fachowej wiedzy i najlepszych praktyk i ich udostępnianie państwom członkowskim;
  • wkład w wypracowywanie jednolitych praktyk administracyjnych, w tym praktyk w zakresie funkcjonowania tzw. piaskownic regulacyjnych w zakresie AI (regulatory sandbox)[11];
  • wydawanie opinii i zaleceń w kwestiach związanych z wdrażaniem rozporządzenia, w tym w kwestii specyfikacji technicznych lub norm czy kwestii sporządzania wytycznych.

Agata Kudelska – radca prawny, główny specjalista w Departamencie Wsparcia Przedsiębiorczości PARP, Enterprise Europe Network 

Źródło: parp.gov.pl

—————————————–

[1] Więcej informacji na stronie Komisji Europejskiej pod adresem: https://ec.europa.eu/info/strategy/priorities-2019-2024/europe-fit-digital-age_pl#introduction (dostęp: 26.11.2021).

[2] Wniosek w sprawie rozporządzenia Parlamentu Europejskiego i Rady ustanawiającego zharmonizowane przepisy dotyczące sztucznej inteligencji (akt w sprawie sztucznej inteligencji) i zmieniającego niektóre akty ustawodawcze Unii, COM(2021) 206 final, 21.4.2021, https://eur-lex.europa.eu/legal-content/PL/TXT/?qid=1623335154975&uri=CELEX%3A52021PC0206.

[3] Komunikat Komisji „Sztuczna inteligencja dla Europy”, COM(2018) 237 final, 25.4.2018, https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=COM%3A2018%3A237%3AFIN.

[4] Komunikat Komisji do Parlamentu Europejskiego, Rady Europejskiej, Rady, Europejskiego Komitetu Ekonomiczno-Społecznego i Komitetu Regionów „Skoordynowany plan w sprawie sztucznej inteligencji”, COM/2018/795 final, 7.12.2018, https://eur-lex.europa.eu/legal-content/PL/TXT/?uri=CELEX%3A52018DC0795#PP1Contents.

[5] Komunikat Komisji do Parlamentu Europejskiego, Rady, Europejskiego Komitetu Ekonomiczno-Społecznego i Komitetu Regionów „Budowanie zaufania do sztucznej inteligencji ukierunkowanej na człowieka”, COM(2019) 168 final, 8.4.2019, https://eur-lex.europa.eu/legal-content/PL/TXT/?uri=CELEX%3A52019DC0168 .

[6] Komisja Europejska „Biała księga w sprawie sztucznej inteligencji, Europejskie podejście do doskonałości i zaufania”, COM(2020) 65 final, 19.2.2020, https://eur-lex.europa.eu/legal-content/PL/TXT/?uri=CELEX%3A52020DC0065.

[7] Komunikat Komisji do Parlamentu Europejskiego, Rady, Europejskiego Komitetu Ekonomiczno-Społecznego i Komitetu Regionów „Promowanie europejskiego podejścia do sztucznej inteligencji”, COM(2021) 205 final, 21.4.2021, https://eur-lex.europa.eu/legal-content/PL/ALL/?uri=COM%3A2021%3A205%3AFIN.

[8] Przestępstwa wskazane w art. 2 ust. 2 decyzji ramowej Rady z dnia 13 czerwca 2002 r. w sprawie europejskiego nakazu aresztowania i procedury wydawania osób między Państwami Członkowskimi (2002/584/WSiSW), Dz.U. UE L 190, 18.7.2002, s. 34, z późn. zm., https://eur-lex.europa.eu/legal-content/PL/TXT/?uri=CELEX%3A02002F0584-20090328.

[9] New Legislative Framework, więcej informacji na stronie Komisji Europejskiej pod adresem: https://ec.europa.eu/growth/single-market/goods/new-legislative-framework_pl (dostęp 07.12.2021).

[10] Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2019/1020 z dnia 20 czerwca 2019 r. w sprawie nadzoru rynku i zgodności produktów oraz zmieniające dyrektywę 2004/42/WE oraz rozporządzenia (WE) nr 765/2008 i (UE) nr 305/2011 (Dz.U. L 169 z 25.6.2019, s. 1), stanowiące jeden z elementów nowych ram prawnych.

[11] Piaskownice regulacyjne w zakresie AI tworzone przez jeden właściwy organ państwa członkowskiego lub większą liczbę takich organów, lub przez Europejskiego Inspektora Ochrony Danych zapewniające kontrolowane środowisko ułatwiające opracowywanie, testowanie i walidację innowacyjnych systemów sztucznej inteligencji przez ograniczony czas przed ich wprowadzeniem do obrotu lub oddaniem ich do użytku zgodnie z określonym planem.


hands-1853302_640.jpg

Wystarczy dołączyć do Rejestru Danych Kontaktowych (RDK). Dzięki niemu urzędy przypomną Wam o terminowych sprawach. Zrobiło tak już prawie 8,5 miliona osób!

Czym jest Rejestr Danych Kontaktowych? To baza, w której możesz zostawić swoje aktualne dane kontaktowe – numer telefonu i / lub adres e-mail. Są tam w pełni bezpieczne. Główny cel RDK to usprawnienie komunikacji na linii urząd – obywatel. RDK obchodzi właśnie swoje drugie urodziny (od uruchomienia 22 grudnia 2019 r.) i jak się okazuje bije rekordy popularności. Jak to działa?


globalisation-1706081_640.jpg

Pandemia przyspieszyła rewolucję cyfrową i wdrażanie rozwiązań technologicznych. Nowe technologie stały się nieodłącznym elementem naszego życia – powiedział wiceminister funduszy i polityki regionalnej Waldemar Buda podczas otwarcia kolejnej debaty eksperckiej dotyczącej prac nad Koncepcją Rozwoju Kraju 2050 (KRK 2050).



Ustalenia kontroli pokazują, że blisko jedną trzecią czasu porady lekarskiej zajmuje prowadzenie dokumentacji medycznej oraz wykonywanie czynności administracyjnych. W trakcie teleporady jest jeszcze gorzej – na samo świadczenie medyczne pozostaje jeszcze mniej, bo tylko 57 proc. czasu.

Zadania administracyjne wprowadza się często za pomocą aktów prawnych, które nie dotyczą funkcjonowania systemu ochrony zdrowia. Przykładem takiej regulacji jest nałożenie na lekarza podstawowej opieki zdrowotnej obowiązku wystawiania zaświadczenia lekarskiego stwierdzającego, że stan zdrowia osoby, która udzieliła pełnomocnictwa do odbioru przesyłek pocztowych w placówce pocztowej, uniemożliwia lub w znacznym stopniu utrudnia osobiste odebranie pisma w placówce pocztowej.

Sytuacja taka wymaga dokonania przez Ministra Zdrowia analizy obowiązujących uregulowań prawnych pod kątem ograniczenia czasochłonności administracyjnych w placówkach leczniczych, tak aby zwiększyć efektywność leczenia pacjentów.

Istotną przyczyną znacznego obciążenia personelu medycznego czynnościami administracyjnymi jest również to, że kierujący placówkami podstawowej opieki zdrowotnej i ambulatoryjnej opieki specjalistycznej nie zapewnili pełnego wykorzystania dostępnych narzędzi, zwłaszcza informatycznych wspierających pracę personelu medycznego w wykonywaniu czynności administracyjnych.

W ogromnej większości (86%) skontrolowanych podmiotów nie wykorzystano możliwości odciążenia pracy lekarzy poprzez nadanie asystentom medycznym odpowiednich uprawnień do wystawiania e-zwolnień, e-recept i e-skierowań. Niewykorzystywana była również możliwość zlecania pielęgniarkom i położnym samodzielnej kontynuacji leczenia pacjentów, w sytuacji spełniania przez nie wymaganych kwalifikacji.

Sekretarki medyczne, rejestratorki i statystycy medyczni, mający w założeniu wspierać personel medyczny w pracy administracyjnej, zatrudniani byli w ograniczonym wymiarze. Rejestratorki medyczne stanowiły 6% zatrudnionych w skontrolowanych jednostkach, sekretarki medyczne – 0,4%, a statystycy medyczni 0,3% zatrudnionych. Rejestratorek nie zatrudniano w ogóle w 9% placówek, sekretarek medycznych w 68%, a statystyków w 73% placówek. W efekcie personel medyczny obciążony był wykonywaniem czynności administracyjnych, także sprawozdawczością oraz rejestracją pacjentów.

W 91% skontrolowanych placówek ochrony zdrowia personelowi medycznemu, zwłaszcza pielęgniarkom, ale także lekarzom powierzano obowiązki administracyjne polegające na sporządzaniu sprawozdań statystycznych oraz dotyczących realizacji umów o udzielanie świadczeń zawartych z NFZ.

Zdaniem NIK ograniczało to możliwość sprawnego i efektywnego świadczenia pomocy medycznej i świadczyło o niewłaściwym zarządzaniu personelem w placówkach ochrony zdrowia.

Podmioty medyczne miały do dyspozycji systemy informatyczne o szerokich możliwościach, które jednak nie były należycie wykorzystywane. Systemów tych nie zintegrowano z systemami do obsługi diagnostyki laboratoryjnej (w 59% skontrolowanych podmiotów) i obrazowej (82%). Nie były również bezpośrednio zasilane wynikami takich badań. Ponadto w 23% placówek ochrony zdrowia nie zapewniono także przepływu danych pomiędzy poszczególnymi ich lokalizacjami (oddziałami). Ograniczało to możliwość sprawnego uzyskiwania danych medycznych koniecznych do podejmowania decyzji w ambulatoryjnym leczeniu pacjentów.

W większości skontrolowanych podmiotów nie spełniono wszystkich wymagań lub warunków organizacyjno-technicznych do prowadzenia dokumentacji medycznej w postaci elektronicznej, a to z powodu m.in. nieufności wobec narzędzi informatycznych, braku mobilnych urządzeń do ewidencji danych medycznych lub braku niezbędnych modułów w użytkowanych systemach informatycznych.

W połowie skontrolowanych placówek nie prowadzono elektronicznej rejestracji wizyty, zaś w 41% brakowało oprogramowania umożliwiającego wysyłkę powiadomień pacjentowi i aktualizacji statusu wizyty (w formie sms lub e-mail). Natomiast w 23% podmiotów nie wykorzystywano wszystkich zakupionych modułów i funkcjonalności systemu informatycznego, przez co praca personelu medycznego ambulatoriów nie została usprawniona.

Dokumentacja medyczna prowadzona była często w formie papierowej, co jest praktyką czasochłonną, utrudniającą dostęp do danych. Dokumentację prowadzono również hybrydowo (t.j. na papierze i w formie elektronicznej) – co wiązało się jednak z ryzykiem niespójności i niejednolitości tych samych dokumentów wytworzonych w obydwu formach. Do systemu informatycznego wprowadzane były przede wszystkim dane potrzebne do rozliczeń z NFZ.

Według opinii uzyskanej z ankiet przeprowadzonych wśród personelu medycznego skontrolowanych podmiotów systemy informatyczne wykorzystywane przy udzielaniu ambulatoryjnych świadczeń zdrowotnych były pomocne i intuicyjne. Większość (89%) personelu została przeszkolona w obsłudze tych systemów, a 61% ankietowanych obsługiwało je samodzielnie.

Z badań NIK wynika, że zastosowanie cyfryzacji oznacza znacznie niższą czasochłonność. Np. czas wystawiania skierowania papierowego na diagnostykę obrazową trwa przeciętnie o 33% dłużej niż w wypadku e-skierowania, na badania laboratoryjne – o prawie 26%, a skierowania do szpitala – o prawie 41%.

W okresie epidemii COVID-19 w siedmiu spośród 22 skontrolowanych placówek (32%) stwierdzono przypadki czasowego ograniczenia dostępności świadczeń poprzez zawieszenie działalności niektórych poradni i niezgodności udzielania świadczeń z przyjętym harmonogramem. W 14% podmiotów czasowo ograniczono działalność do wykonywania tylko świadczeń ratujących życie i dla pacjentów skierowanych w trybie pilnym. Jak wyjaśniono, zmiany te brały się z zaleceń NFZ w zakresie zapobiegania, przeciwdziałania i zwalczania epidemii koronawirusa.

Teleporada jako nowa forma świadczenia pomocy medycznej stanowiła w I półroczu 2020 r. jedną czwartą wszystkich udzielonych porad lekarskich. W porównaniu do I półrocza 2019 r. liczba porad udzielonych w skontrolowanych podmiotach leczniczych była mniejsza o 15% w POZ oraz o 26% w AOS.

Wnioski dla Ministra Zdrowia

NIK wnosi o podjęcie następujących działań (we współpracy z organizacjami reprezentującymi środowisko medyczne):

  • przeanalizowanie zakresu obowiązków administracyjnych personelu medycznego i ograniczenie ich do niezbędnego minimum;
  • przyspieszenie procesu informatyzacji oraz automatyzacji obiegu informacji w systemie ochrony zdrowia.

Kierownicy podmiotów leczniczych

Dla usprawnienia organizacji pracy w podmiotach udzielających świadczeń ambulatoryjnej opieki zdrowotnej NIK kieruje wnioski o:

  • pełne wykorzystanie możliwości narzędzi informatycznych i wdrożenie odpowiednich rozwiązań wspierających pracę personelu medycznego, w szczególności:
    • zintegrowanie wykorzystywanych systemów informatycznych z systemami laboratoryjnymi i diagnostyki obrazowej – w celu ich bezpośredniego zasilenia wynikami badań;
    • wdrożenie systemów elektronicznej rejestracji wizyt ambulatoryjnych, z możliwością wysyłki powiadomień i aktualizacji statusu wizyty (w formie e-mail lub sms) – w celu udostępnienia lekarzowi informacji o zapisanych pacjentach oraz ograniczenia liczby przypadków, kiedy pacjent zapisuje się na wizytę i o niej zapomina;
  • wprowadzenie jednolitych zasad prowadzenia dokumentacji medycznej w postaci elektronicznej oraz wyeliminowanie nieefektywnych praktyk tworzenia tego samego dokumentu w postaci elektronicznej i papierowej, w celu zapewnienia spójności i usprawnienia obiegu informacji pomiędzy poszczególnymi jednostkami organizacyjnymi podmiotu leczniczego.

Materiały audiowizualne dla radia, TV i portali internetowych >>

Źródło: nik.gov.pl



„Przyszłość jest dziś” to nazwa programu edukacyjnego, który realizujemy wspólnie z NASK i Centrum Nauki Kopernik. Towarzyszy wystawie o tym samym tytule, której otwarcie już w listopadzie. Sprawdźcie, co szykujemy dla uczniów i nauczycieli w tym roku szkolnym.

Program edukacyjny „Przyszłość jest dziś” powstał z myślą o uczniach i nauczycielach. W szkołach w coraz większym stopniu wykorzystywane są nowe technologie. Nasza przyszłość jest z nimi nierozerwalnie związana. Dlatego uznaliśmy, że najwyższy czas, aby porozmawiać o tym z młodszym pokoleniem.

Rezerwujcie czas!

Jak sztuczna inteligencja wpłynie na nasze życie, czy można nawiązać relacje z robotem, jak wykorzystać nowe technologie w nauce i sztuce? – to tylko wybrane pytania, które postawimy podczas specjalnych wydarzeń. O tym właśnie chcemy z Wami porozmawiać w tym roku szkolnym!

Dlatego już dziś zapraszamy nauczycieli ze szkół podstawowych i ponadpodstawowych do udziału w warsztatach dotyczących m.in. nowo powstającej w Centrum Nauki Kopernik wystawie „Przyszłość jest dziś”. Co Was czeka?

Podczas warsztatów poznacie tematykę wystawy i działania, które zaplanowaliśmy w ramach programu edukacyjnego – scenariusze i towarzyszące im wydarzenia. Wspólnie porozmawiamy o rozwoju nowoczesnych technologii. Zastanowimy się też, które zagadnienia byłyby interesujące do poruszenia podczas lekcji. Dowiecie się również, jak w ciekawy sposób przygotować wizytę z uczniami w Koperniku.

Jakie terminy?

  • 21 października – online na platformie Zoom, godz. 16.30–18.00.
  • 9 listopada – stacjonarnie w Centrum Nauki Kopernik, godz. 16.30–19.00.

Jak się zapisać?

Zgłoszenia przyjmujemy do 10 października. Zgłoście się już dziś!

Liczba uczestników każdego spotkania to 20 osób. Decyduje kolejność zgłoszeń.

Jeśli macie pytania, piszcie na adres malgorzata.maryl@kopernik.org.pl

Co dalej?

To nie wszystko! Dla uczniów szykujemy spotkania dyskusyjne. Taki format nie tylko aktywizuje młodzież, ale przede wszystkim pozwala na wyrażenie swojego zdania, wątpliwości, postawienie pytań o technologie przyszłości. Wydarzenia zaplanowaliśmy na listopad tego roku, ale i na marzec oraz maj 2022 r.

Wnioski z tych spotkań będą punktem wyjścia do pracy z nauczycielami, dla których przygotowujemy wyjątkowe warsztaty. Kiedy? W lutym, marcu, kwietniu i maju przyszłego roku.

Na wszystkie wydarzenia zapraszamy już teraz, śledźcie strony www.gov.pl/cyfryzacja oraz www.kopernik.org.pl, gdzie będziemy informować o rekrutacjach!

Wystawa tuż tuż!

Nasz program edukacyjny towarzyszy wystawie „Przyszłość jest dziś”, która swoją odsłonę będzie miała już w listopadzie w Centrum Nauki Kopernik. Jej pierwszy moduł „Cyfrowy mózg?” dotyczy szans i wyzwań związanych z rozwojem technologii cyfrowych i ich coraz większym wpływem na nasze życie osobiste i społeczne. Już dziś zachęcamy nauczycieli wraz z grupami uczniów do odwiedzenia ekspozycji, udziału w naszych wydarzeniach, ale także do korzystania z materiałów, które przygotowaliśmy.

Na stronie OSE IT Szkoła znajdziecie scenariusze lekcji oraz aplikację, która przedstawia mechanizm działania sieci neuronowwej. Ten sam mechanizm jest podstawą działania eksponatu, który stanie się częścią wystawy „Przyszłość jest dziś”. Tajniki pracy jego twórców można poznać dzięki nagranemu „na zapleczu” ich warsztatu filmowi.

Już niebawem zaprezentujemy także film edukacyjny z udziałem popularnych influencerów!

Do zobaczenia!

Projekt „Kampanie edukacyjno-informacyjne na rzecz upowszechniania korzyści z wykorzystywania technologii cyfrowych” realizujemu wspólnie z Państwowym Instytutem Badawczym NASK oraz Centrum Nauki Kopernik. Kampanie mają na celu promowanie wykorzystywania technologii w codziennym życiu przez osoby w różnym wieku, przełamywanie barier z tym związanych oraz wzrost cyfrowych kompetencji społeczeństwa. Projekt obejmuje pięć obszarów: jakość życia, e-usługi publiczne, bezpieczeństwo w sieci, programowanie i cyfrową przyszłość.

Źródło: Cyfryzacja KPRM



Państwowy Instytut Badawczy NASK od 2014 r., co dwa lata, prowadzi badanie zachowania polskich nastolatków w internecie i ich opinii na temat sieci. Od 2018 r. badaniem objęci są także rodzice uczniów, co dodatkowo umożliwia zestawienie opinii nastolatków z obserwacjami dorosłych. W czwartek premierę miał raport z najnowszej edycji badania.

Coraz dłużej

– Rok 2020 był wyjątkowy pod względem zmian w zakresie rewolucji cyfrowej. Praktycznie z dnia na dzień internetowe aktywności stały się w wielu przypadkach jedyną efektywną i bezpieczną formą realizacji obowiązków, zaspokajania potrzeb czy nawiązywania i podtrzymywania relacji. Wnioski z przeprowadzonego w tym szczególnym czasie badania „Nastolatki 3.0” mogą stać się dla rodziców i nauczycieli oraz instytucji edukacyjnych w Polsce cenną wskazówką do lepszego zrozumienia aspektów związanych z obecnością najmłodszych w internecie – powiedział Wojciech Pawlak, dyrektor NASK.

Jakie wnioski płyną z najnowszej edycji badania?

Internet wciąga młodych ludzi coraz mocniej. Obecnie nastolatki spędzają w sieci w czasie wolnym średnio 4 godziny i 50 minut dziennie. W dni wolne od zajęć szkolnych ten czas wydłuża się średnio do 6 godzin i 10 minut. Blisko co dziesiąty (11,5%) nastolatek w wolnym czasie jest aktywny w sieci ponad 8 godzin dziennie, a co piąty (21,3%) spędza tyle czasu przed monitorem w dni wolne od lekcji. Co szósty nastolatek (16,9%) intensywnie korzysta z internetu w godzinach nocnych (po godz. 22).

Jeśli porównamy te wyniki z poprzednimi badaniami, okazuje się, że liczba godzin spędzanych w internecie stale rośnie. Nie pozostaje to bez wpływu na samopoczucie i dobrostan psychiczny młodzieży. A także na rozwój i wychowanie: co piąty nastolatek deklaruje, że aby móc więcej czasu spędzić online, jest gotowy zrezygnować z uczenia się (23,2%) i obowiązków domowych (19,7%), co trzeci – z  udziału w nabożeństwie (30,6%).

Konieczność przystosowania się do okoliczności podczas pandemii spowodowała, że czas online jeszcze się wydłużył – badani twierdzili, że na same lekcje przeznaczali średnio 7 godzin i 41 minut.

– Młodzież spędza w internecie w wolnym czasie już 4 godziny i 50 minut. Kluczowe jest to, aby zaproponować – jako pewne remedium na stale rosnącą liczbę godzin spędzanych w internecie, przed telefonem – ciekawe treści, które sprawią, że produktywność tego czasu z punktu widzenia rozwoju młodej osoby będzie wyższa. To jest kierunek, w którym chcemy podążyć. Zależy nam na tym, aby przyszłość była cyfrowa, ale żeby wiązało się to z przewagą korzyści nad zagrożeniami – powiedział minister Janusz Cieszyński, sekretarz stanu ds. cyfryzacji w Kancelarii Prezesa Rady Ministrów i pełnomocnik rządu ds. cyberbezpieczeństwa.

Czy to już problem?

Podsumowując – polski nastolatek w 2020 r. wpatrywał się w ekran komputera lub smartfona ok. 12 godzin na dobę – w wolnym czasie średnio 4 godziny i 50 minut dziennie, w trakcie zdalnych lekcji średnio 7 godzin i 41 minut.

– Rewolucja cyfrowa oraz wywołane nią przemiany społeczne i gospodarcze obok ogromnych korzyści przyniosły także nieznane wcześniej zjawiska o nie zawsze pożądanym charakterze – ocenia współautor raportu dr Rafał Lange Kierownik Zespołu Badań Rynku i Opinii NASK.

Jak się okazało, już co trzeci nastolatek (33,6%) wykazuje się wysokim natężeniem wskaźników tzw. problematycznego użytkowania internetu (kategoria określająca m.in. zachowania ryzykowne czy nadmiernie długie przebywanie online), a trzech na stu – bardzo wysokim (3,2%). Najmocniej dotknięte tym problemem są dziewczęta ze szkół ponadpodstawowych – aż dwie na pięć (39,4%) badanych uczennic twierdzi, że gdyby pozbawić je smartfona, ich życie stałoby się puste.

Rodzice wiedzą?

Z badania wynika, że opiekunowie często nie zdają sobie sprawy, ile czasu spędzają w internecie ich podopieczni. Według rodziców ich dzieci korzystają z sieci średnio 3 godziny i 38 minut. To ponad godzinę krócej, niż deklarują same nastolatki. Dorośli wiedzą wprawdzie, ile czasu młodzi poświęcają na zdalne lekcje, ale nie potrafią trafnie oszacować ich cyfrowej aktywności po szkole. Zdaniem dorosłych nastolatki są najbardziej aktywne w internecie między godz. 16 a 22. Tymczasem dzieci często aktywnie używają smartfonów i innych narzędzi umożliwiających dostęp do internetu, podczas gdy rodzice myślą, że ich pociechy śpią lub szykują się do snu.

Podobnie jest z doświadczaniem przez młodych przemocy w internecie. Podczas gdy prawie 75% rodziców badanych nastolatków twierdzi, że ich dzieci nie padły ofiarą żadnej formy agresji w sieci, to brak bezpośredniego doświadczenia przemocy internetowej deklaruje tylko ponad połowa badanych nastolatków (56,2%).

Edukacja zdalna – przyspieszona lekcja z cyfryzacji

Według uczniów i rodziców szkoły w większości przypadków poradziły sobie z edukacją na odległość. 70% uczniów dobrze ocenia organizację zajęć zdalnych w swojej szkole („zdecydowanie dobrze” – 13%, „raczej dobrze” – 56,4%).

Niemal trzy czwarte nastolatków pozytywnie ocenia nauczanie zdalne. Nie oznacza to jednak, że chcieliby na stałe przenieść większość edukacji do trybu online. Prawie co drugi badany (45,3%) nie jest zwolennikiem takiego rozwiązania.

Nastolatki deklarują ponadto, że w czasie pandemii brakowało im głównie bezpośredniego kontaktu z kolegami i koleżankami z klasy – wskazało tak trzy czwarte badanych uczniów, podobnie uważają rodzice (76,0%).  Dodatkowo, uczniom w czasie edukacji online brakowało szczególnie wychodzenia z domu (63,3%), czego nie zauważyli rodzice, wśród których tylko nieliczni zaznaczyli taką odpowiedź (6,0%).

Rodzice jako problem wskazują zmęczenie dzieci spowodowane całodniowym uczestnictwem w zdalnych lekcjach. Pełna wersja raportu „Nastolatki 3.0”.

Premierze raportu „Nastolatki 3.0” towarzyszyła debata online Przyspieszona lekcja cyfryzacji w pandemii – jak wpłynęła na uczniów i czego nas nauczyła? Premiera raportu „Nastolatki 3.0” – obejrzyj.

Raport „Nastolatki 3.0” został sfinansowany w ramach programu Ogólnopolska Sieć Edukacyjna (OSE), który jest realizowany przez Państwowy Instytut Badawczy NASK pod nadzorem Kancelarii Prezesa Rady Ministrów. OSE to program publicznej sieci telekomunikacyjnej, dającej szkołom w całej Polsce możliwość podłączenia szybkiego, bezpłatnego i bezpiecznego internetu. W ramach programu OSE prowadzone są także działania edukacyjno-informacyjne, promujące zasady bezpiecznego korzystania z technologii cyfrowych.

Źródło: Cyfryzacja KPRM



Projekt jest finansowany z Funduszy Europejskich. Z pomocy skorzystają mieszkańcy 880 gmin, na terenie których działały Państwowe Gospodarstwa Rolne. To ponad 30% wszystkich gmin w Polsce. Wnioski przyjmować będzie Centrum Projektów Polska Cyfrowa. Szczegóły działania na czwartkowej konferencji ogłosili ministrowie Janusz Cieszyński – sekretarz stanu ds. cyfryzacji w Kancelarii Prezesa Rady Ministrów oraz Paweł Szefernaker – sekretarz stanu w Ministerstwie Spraw Wewnętrznych i Administracji.

Sprzęt trafi do około 20 tysięcy dzieci z rodzin byłych pracowników PGR.

Start – 4 października

Jakiś czas temu minister Paweł Szefernaker zwrócił się do Kancelarii Premiera, aby – w ramach programu wsparcia samorządów – szczególną uwagę poświęcić rodzinom byłych pracowników PGR.

Podszedłem do tego pomysłu z dużym entuzjazmem – powiedział minister Janusz Cieszyński, sekretarz stanu ds. cyfryzacji w Kancelarii Prezesa Rady Ministrów. – Dziś przechodzimy z etapu koncepcji do etapu realizacji. Właśnie ruszył nabór wniosków w programie wsparcia dzieci z rodzin byłych pracowników PGR-ów. Potrwa do 5 listopada – dodał.

Cele programu to przede wszystkim:

•    przeciwdziałanie nierównościom społecznym,
•    cyfryzacja terenów popegeerowskich,
•    poprawa jakości życia mieszkańców,
•    rozwój cyfrowy dzieci i młodzieży z rodzin byłych pracowników PGR.

Budżet działania to 80 milionów złotych.

– W ramach projektu będziemy finansować zakup sprzętu oraz dwuletni dostęp do internetu. Na każdy zestaw – komputer i internet – przeznaczymy do 3,5 tys. złotych – powiedział minister Janusz Cieszyński. – Chcemy, aby pieniądze dotarły do gmin najpóźniej do końca tego roku. Liczę na to, że uda się to wcześniej – w miesiąc, półtora od momentu złożenia wniosku. To dla nas priorytetowy projekt.

– Pandemia pokazała, że wykluczenie cyfrowe terenów popegeerowskich jest duże. Dlatego potrzeba zakupu sprzętu komputerowego jest jedną z najpilniejszych – powiedział Paweł Szefernaker, sekretarz stanu w Ministerstwie Spraw Wewnętrznych i Administracji. – Nasz rząd kieruje się zasadą zrównoważonego rozwoju, dlatego chcemy zlikwidować wykluczenie cyfrowe na terenach popegeerowskich. Program zakupu sprzętu komputerowego dotyczy głównie wnuków i prawnuków byłych pracowników PGR-ów – dodał.

Realne potrzeby, realna pomoc

– Jeśli jednak zapotrzebowanie będzie większe, będziemy te środki zwiększać. Tak, by zrealizować wszystkie potrzeby – zapowiedział minister Janusz Cieszyński.

Wnioski przyjmować będzie Centrum Projektów Polska Cyfrowa. Już dziś na stronie gov.pl/cppc/wsparcie-ppgr można znaleźć szczegółowe informacje i dokumentację, która ułatwi składanie wniosku.

Podobnie jak w zainaugurowanym w tym tygodniu programie „Cyfrowa Gmina” procedura naboru wniosków będzie prosta i w pełni elektroniczna.

Rządowi zależy nam na szybkim i skutecznym wsparciu. Zachęcamy do składania wniosków.

Laptopy, komputery stacjonarne, dostęp do internetu i niezbędne akcesoria – taki sprzęt dla uczniów będą mogli kupić samorządowcy za pieniądze z tego programu wsparcia. Właśnie wystartował nabór wniosków.

Laptop od zaraz

Jak wynika z opublikowanej kilka dni temu najnowszej edycji badania NASK – Nastolatki 3.0 – w czasie pandemicznych ograniczeń stacjonarnego trybu nauki uczniowie brali udział w zdalnych lekcjach, przede wszystkim wykorzystując laptopy (66,6%) oraz smartfony (58,0%). Prawie co trzeci rodzic twierdzi, że w trakcie pandemii musiał kupić dodatkowy laptop (31,8%). 11,5% badanych rodziców jako najczęściej spotykany problem podczas nauki online wskazało brak odpowiedniego sprzętu (komputera/laptopa/tableta).

– Pandemia pokazała, jak duże jest wykluczenie cyfrowe terenów popegeerowskich. Potrzeba zakupu sprzętu komputerowego jest jedną z najpilniejszych. Ten program to odpowiedź na tę potrzebę – mówi Paweł Szefernaker, sekretarz stanu w Ministerstwie Spraw Wewnętrznych i Administracji. – To kolejny program wsparcia dla gmin, gdzie funkcjonowały PGR-y. Po środkach na inwestycje – tym razem pomoc kierujemy do dzieci w wieku szkolnym, które potrzebują sprzętu komputerowego, by mieć równe szanse edukacyjne – dodaje.

– Z pomocy skorzystają mieszkańcy 880 gmin, na terenie których działały PGR. To ponad 30% wszystkich gmin w Polsce. Szacujemy, że w ramach tego działania, sprzęt trafi do około 20 tysięcy dzieci z rodzin byłych pracowników PGR. Jeśli jednak zapotrzebowanie będzie większe, będziemy te środki zwiększać. Tak, by zrealizować wszystkie potrzeby – mówi z kolei minister Janusz Cieszyński, sekretarz stanu ds. cyfryzacji w Kancelarii Prezesa Rady Ministrów.

Złóż wniosek

Ruszył nabór wniosków w programie wsparcia dzieci z rodzin byłych pracowników PGR-ów. Potrwa do 5 listopada.

– W ramach projektu będziemy finansować zakup sprzętu oraz dwuletni dostęp do internetu. Na każdy zestaw – komputer i internet – przeznaczymy do 3,5 tys. złotych – mówi minister Janusz Cieszyński. – Chcemy, aby pieniądze dotarły do gmin najpóźniej do końca tego roku. Liczę na to, że uda się to wcześniej. To dla nas priorytetowy projekt. Zachęcam samorządowców do składania wniosków – dodaje.

A jak złożyć wniosek? Wystarczy wypełnić go za pomocą Generatora Wniosków Grantowych. Wszystkie niezbędne informacje, w tym dokumentację, która ułatwia złożenie wniosku można znaleźć na stronie gov.pl/cppc/wsparcie-ppgr.

Pytania dotyczące sposobu składania wniosków można zadawać mailowo lub dzwoniąc na infolinię:

  • infolinia działa w godz. 7:30-16:30 od poniedziałku do piątku – tel.  +48 42 631 21 05
  • e-mail: ppgr@cppc.gov.pl

Na jakie wsparcie mogą liczyć poszczególne gminy?

Do zależy od liczby zgłoszonych dzieci z rodzin byłych pracowników PGR. Poziom dofinansowania to iloczyn liczby dzieci i określonej w dokumentacji maksymalnej stawki na zestaw komputerowy, czyli 3.500 zł.

Na stronie CPPC można też znaleźć listę gmin uprawnionych do udziału w programie.

Zachęcamy do składania wniosków. Przypominamy – ich nabór trwa do 5 listopada!

Więcej informacji na gov.pl/cppc/wsparcie-ppgr.

Źródło: Cyfryzacja KPRM



Od 20 września przedsiębiorcy zgłosili do PARP w konkursie „Bony na cyfryzację” wnioski o łącznej wartości ponad 214 mln zł, znacząco przekraczając zapisany w regulaminie próg 120 proc. budżet konkursu. Zgodnie z regulaminem nabór wniosków zostanie zakończony wcześniej. Na zgłoszenia czekamy do 5 października 2021 r. (do godz. 16.00 ). Program jest finansowany ze środków unijnych Programu Operacyjnego Inteligentny Rozwój.

Konkurs „Wsparcie MŚP w obszarze cyfryzacji – Bony na cyfryzację” skierowany jest do mikro-, małych i średnich przedsiębiorstw prowadzących działalność na terytorium Rzeczpospolitej Polskiej. Łączna kwota przeznaczona na dofinansowanie projektów wynosi 110 mln zł. Przedsiębiorca ubiegający się o dofinansowanie może liczyć na wsparcie w wysokości od 51 do nawet 255 tys. zł.

Wsparcie mogą uzyskać projekty polegające na wprowadzeniu przez MŚP innowacji procesowej poprzez wykorzystanie technologii cyfrowych. Realizacja projektu może stanowić uzupełnienie dla toczących się już procesów, spowodować zmianę modelu biznesowego przedsiębiorstwa lub jego strategii.

Projekt może polegać dodatkowo na wdrożeniu innowacji produktowej powiązanej z wdrażaną innowacją procesową. Wprowadzony na rynek produkt musi być zatem nowy lub znacząco ulepszony w stosunku do dotychczasowych produktów danego przedsiębiorcy.

Dofinansowaniu będą podlegać takie koszty, jak: zakup usług programistycznych lub/i zakup oprogramowania gotowego, co stanowi komponent obligatoryjny projektu o minimalnej wartości wydatków kwalifikowalnych 60 tys. zł oraz zakup środków trwałych, usług doradczych lub/i szkoleniowych, które stanowią komponent fakultatywny projektu o maksymalnej wartości wydatków kwalifikowalnych 150 tys. zł.

Więcej informacji nt. warunków udziału w konkursie znajduje się na stronie: Wsparcie MSP w obszarze cyfryzacji – Bony na cyfryzację.

Źródło: parp.gov.pl