„Вече е ясно, че въпросът дали изкуственият интелект ще бъде регулиран със законодателство. Въпросът вече е кога и как.“
Изкуствен интелект – регулация и бъдеще, дискусия в МС 11.05.2023
Развитието на технологиите, базирани на изкуствен интелект (ИИ) е на етап, в който те вече осезаемо са навлезели в ежедневието, а технологичните гиганти са в открита надпревара. Новата технология безспорно вече улеснява живота ни, показва ни възможности, които е ясно – само с естествения си интелект не можем да достигнем. Дори ни карат да мечтаем, че вече ще оставим зад гърба си много тривиални задачи: писане на стандартни текстове, търсене на информация та дори и шофиране.
НО, има и някой аспекти, които започват да тревожат: доколко са защитени правата ни и не сме ли уязвими?
Ето и някои примери:
ИИ стои зад алгоритмите, които определят какво да гледаме в платформите за видео стрийминг, което може да има директен ефект върху правото ни да получаваме и разпространяваме информация.
ИИ може да се използва при набиране на персонал за филтриране на кандидатури за работа – т.е. директно да влияе върху социалните и икономическите ни права и защитата от дискриминация. Този пример е особено показателен за риска ИИ да доведе до резултат диаметрално противоположен на целта – вместо постигане на безпристрастност, се утвърждават вредни стереотипи. Да кажем, че ИИ обработва кандидатури за инженери, въз основа на данни за най-добрите инженери в света през последните 100 години. Очевидно през последните 100 години поради ред обществено – социални причини, несвързани с обективни критерии за квалификация, най-добрите инженери са били мъже и така алгоритъмът ще възпроизведе този стереотип и ще приоритизира кандидатите мъже.
Има данни, че ИИ за „предсказване“ на престъпност вече се използва в някои европейски държави като Нидерландия, Германия и Италия. Тези системи, най-общо казано, профилират хората и предсказват тяхно бъдещо поведение като оценяват „риска“ от криминални прояви. Така в резултат на такава оценка може даден човек да е следен и наблюдаван, спиран за проверки и разследван без обективни данни за престъпление. Може да се стигне и до други последици като спиране на социални помощи. Такива системи са изключително уязвими към утвърждаване на дискриминационни стереотипи свързани с раса, социално-икономически статус и националност. Така се предпоставя нарушаването на редица основни права като правото на справедлив процес, презумпцията за невинност, правото на личен и семеен живот и защитата на личните данни. Този пример ни показва и нещо друго – когато не разбираме системите, базирани на ИИ, не сме осигурили тяхната прозрачност и оценка на риска, ние сме склонни да им се предоверяваме. Все пак как ще противоречим на нещо, което презумираме, че е разработено от професионалисти, работи с огромен обем данни или просто казано смятаме за „по-умно“ от нас? По този начин например един полицейски служител ще е склонен да се довери на системата и да предприеме действия, въпреки че формално решението за предприемане на действие ще зависи от него.
Единственият начин да се гарантира защитата от рисковете свързани с ИИ технологиите на всеки един от нас е като създадем регулация, основана на стандартите на правата на човека. И докато такъв дебат тече в Брюксел от 2019 г. във връзка с приемането на Регламент за ИИ, България отново е на път да се окаже неподготвена за бъдещата регулация. Българското правителство вече се е ангажирало да започне ефективен обществен диалог за разработване на общи стандарти при използването на изкуствения интелект в процеса на дигитализация с цел осигуряване на гаранции за равен достъп и зачитане на правата на човека чрез Мярка 4 от в Четвърти национален план за действие в рамките на инициативата „Партньорство за открито управление.“ И въпреки че Планът се прие през 2022 г., тази мярка все още не се изпълнява на практика. За това предупреди и правният експерт на БЦНП Захари Янков по време на дискусията "Изкуственият интелект - регулация и бъдеще организирана от МС".
Ние смятаме, че с развитието на ИИ и прилагането му в най-различни сфери от човешкия живот, трябва да сме оптимисти за напредъка на човешкото знание, което може чрез технологиите да реши някои социални проблеми и да изравни неравенствата, които не можем да изкореним. Но, за да се случи това, трябва да сме сигурни, че:
Разговорът, който водихме с Венелин Стойчев, модератор, Петър Торнев, директор на Технологичния център на Accenture; Ирина Алексиева, Министерство на електронното управление; Захари Янков, БЦНП и Др. Никола Константинов, INSAIT беше изключително съдържателен и със сигурност даде заявка, че подобни интердисциплинарни формати трябва да продължат.
Можете да гледате цялата дискусия Изкуственият интелект - регулация и бъдеще, във връзка с изпълнение на мярка 4 от Четвърти национален план за действие в рамките на инициативата „Партньорство за открито управление.“ Тук.