System AI wysokiego ryzyka – jak go rozpoznać i spełnić wymogi AI Act?
AI Act uznaje za systemy wysokiego ryzyka te rozwiązania AI, które mogą poważnie wpływać na zdrowie, bezpieczeństwo lub prawa ludzi — m.in. w obszarach biometrii, edukacji, zatrudnienia, finansów, policji czy infrastruktury krytycznej. Dostawcy takich systemów muszą spełnić surowe wymogi, m.in. dotyczące jakości danych, dokumentacji, nadzoru człowieka, cyberbezpieczeństwa i oceny zgodności. Użytkownicy muszą korzystać z AI zgodnie z instrukcjami, monitorować jej działanie i przeprowadzać ocenę wpływu na prawa podstawowe. Większość przepisów zacznie obowiązywać w 2026 r.