СТАПИ НА СИЛА ЗАКОНОТ ЗА ВЕШТАЧКА ИНТЕЛИГЕНЦИЈА НА ЕУ

    СТАПИ НА СИЛА ЗАКОНОТ ЗА ВЕШТАЧКА ИНТЕЛИГЕНЦИЈА НА ЕУЗаконот е дизајниран да гарантира дека вештачката интелигенција развиена и користена во ЕУ е безбедна и доверлива и дека се преземени мерки за заштита на основните права на луѓето. (Фото: АП)

    Законот за вештачка интелигенција на Европската Унија (ЕУ), кој е прва сеопфатна законска регулатива во светот за оваа технологија, официјално стапи во сила, со што се воспоставува хармонизиран европски внатрешен пазар за вештачка интелигенција, се охрабрува нејзиното прифаќање и се создаваат услови за поддршка на иновациите и инвестициите во оваа сфера. Законот е дизајниран да гарантира дека вештачката интелигенција развиена и користена во ЕУ е безбедна и доверлива и дека се преземени мерки за заштита на основните права на луѓето.

    Според извршната потпретседателка на Европската комисија за Европа прилагодена на дигиталната ера Маргрете Вестагер, Законот е показател дека европскиот пристап кон технологијата ги става луѓето на прво место и гарантира почитување и заштита правата на сите.

    „Со Законот за вештачка интелигенција, ЕУ презеде важен чекор за да се осигура дека при примената на технологијата за вештачка интелигенција се почитуваат нејзините правила“, изјави Вестагер по повод стапувањето на законот во сила.

    Според неа, вештачката интелигенција има потенцијал да го промени досегашните начини на работа и живеење и нуди огромни придобивки за граѓаните, општеството и европската економија. Еврокомесарот за внатрешен пазар Тјери Бретон смета дека стапувањето во сила на Законот претставува голема пресвртница во лидерството на Европа во обезбедувањето на доверлива вештачка интелигенција.

    „Со стапувањето во сила на Законот за вештачка интелигенција, европската демократија прва во светот испорача ефикасна и адекватна рамка за вештачката интелигенција, справувајќи се со ризиците и служејќи како лансирно поле за европските стартапи со вештачка интелигенција“, додаде Бретон.

    Со Законот се воспоставуваат стандарди за обезбедување минимален ризик при користењето на системите за вештачка интелигенција и за нивна целосна транспарентност. За оние системи за вештачка интелигенција што се идентификувани како високоризични се предвидени строги барања, кои меѓу другото вклучуваат и мерки за намалување на ризикот, евиденција на активностите, комплетна документација, човечки надзор и кибер безбедност. Во оваа високоризична група меѓу другите се вклучени и системите за вештачка интелигенција што се користат за утврдување или проценка дали некој субјект има право да добие кредит, како и алгоритмите кои управуваат со автономни роботи.

    Со Законот се забранува користење на системи за вештачка интелигенција кои се сметаат за „јасна закана за основните човекови права“, како што се апликации за манипулирање со однесувањето на луѓето, играчки кои со гласовна помош можат да поттикнат „опасното однесување“ на малолетниците, како и системи кои овозможуваат „социјално оценување“ од владите или компаниите. Се забранува употреби на системи за препознавање емоции на работното место, за категоризација на луѓе или за биометриска идентификација на далечина во реално време.

    Законот воспоставува и правила за т.н. модели со вештачка интелигенција за општа намена, кои се повеќе се користат како компоненти на современите апликации, потоа обезбедува транспарентност долж целиот синџирот на вредност и предвидува решенија за можните системски ризици.

    Согласно одредбите од Законот, земјите членки на ЕУ имаат рок до 2 август 2025 година да формираат национални надлежни органи, кои ќе ја надгледуваат примената на правилата за системите за вештачка интелигенција и ќе вршат активности за надзор на пазарот. Клучно тело за спроведување на Законот и на правилата за моделите за вештачка интелигенција за општа намена на ниво на ЕУ ќе биде Канцеларијата за вештачка интелигенција на Европската комисијата.

    Симнете ја мобилната апликација

    ©SDK.MK Крадењето авторски текстови е казниво со закон. Преземањето на авторски содржини (текстови) од оваа страница е дозволено само делумно и со ставање хиперлинк до содржината што се цитира