Какво ни очаква с навлизането на изкуствения интелект в живота ни – структурна промяна или просто поредната вълна на технологична иновация?
„Вече е ясно, че въпросът дали изкуственият интелект ще бъде регулиран със законодателство. Въпросът вече е кога и как.“
Изкуствен интелект – регулация и бъдеще, дискусия в МС 11.05.2023
Развитието на технологиите, базирани на изкуствен интелект (ИИ) е на етап, в който те вече осезаемо са навлезели в ежедневието, а технологичните гиганти са в открита надпревара. Новата технология безспорно вече улеснява живота ни, показва ни възможности, които е ясно – само с естествения си интелект не можем да достигнем. Дори ни карат да мечтаем, че вече ще оставим зад гърба си много тривиални задачи: писане на стандартни текстове, търсене на информация та дори и шофиране.
НО, има и някой аспекти, които започват да тревожат: доколко са защитени правата ни и не сме ли уязвими?
Ето и някои примери:
ИИ стои зад алгоритмите, които определят какво да гледаме в платформите за видео стрийминг, което може да има директен ефект върху правото ни да получаваме и разпространяваме информация.
ИИ може да се използва при набиране на персонал за филтриране на кандидатури за работа – т.е. директно да влияе върху социалните и икономическите ни права и защитата от дискриминация. Този пример е особено показателен за риска ИИ да доведе до резултат диаметрално противоположен на целта – вместо постигане на безпристрастност, се утвърждават вредни стереотипи. Да кажем, че ИИ обработва кандидатури за инженери, въз основа на данни за най-добрите инженери в света през последните 100 години. Очевидно през последните 100 години поради ред обществено – социални причини, несвързани с обективни критерии за квалификация, най-добрите инженери са били мъже и така алгоритъмът ще възпроизведе този стереотип и ще приоритизира кандидатите мъже.
Има данни, че ИИ за „предсказване“ на престъпност вече се използва в някои европейски държави като Нидерландия, Германия и Италия. Тези системи, най-общо казано, профилират хората и предсказват тяхно бъдещо поведение като оценяват „риска“ от криминални прояви. Така в резултат на такава оценка може даден човек да е следен и наблюдаван, спиран за проверки и разследван без обективни данни за престъпление. Може да се стигне и до други последици като спиране на социални помощи. Такива системи са изключително уязвими към утвърждаване на дискриминационни стереотипи свързани с раса, социално-икономически статус и националност. Така се предпоставя нарушаването на редица основни права като правото на справедлив процес, презумпцията за невинност, правото на личен и семеен живот и защитата на личните данни. Този пример ни показва и нещо друго – когато не разбираме системите, базирани на ИИ, не сме осигурили тяхната прозрачност и оценка на риска, ние сме склонни да им се предоверяваме. Все пак как ще противоречим на нещо, което презумираме, че е разработено от професионалисти, работи с огромен обем данни или просто казано смятаме за „по-умно“ от нас? По този начин например един полицейски служител ще е склонен да се довери на системата и да предприеме действия, въпреки че формално решението за предприемане на действие ще зависи от него.
Единственият начин да се гарантира защитата от рисковете свързани с ИИ технологиите на всеки един от нас е като създадем регулация, основана на стандартите на правата на човека. И докато такъв дебат тече в Брюксел от 2019 г. във връзка с приемането на Регламент за ИИ, България отново е на път да се окаже неподготвена за бъдещата регулация. Българското правителство вече се е ангажирало да започне ефективен обществен диалог за разработване на общи стандарти при използването на изкуствения интелект в процеса на дигитализация с цел осигуряване на гаранции за равен достъп и зачитане на правата на човека чрез Мярка 4 от в Четвърти национален план за действие в рамките на инициативата „Партньорство за открито управление.“ И въпреки че Планът се прие през 2022 г., тази мярка все още не се изпълнява на практика. За това предупреди и правният експерт на БЦНП Захари Янков по време на дискусията "Изкуственият интелект – регулация и бъдеще организирана от МС".
Ние смятаме, че с развитието на ИИ и прилагането му в най-различни сфери от човешкия живот, трябва да сме оптимисти за напредъка на човешкото знание, което може чрез технологиите да реши някои социални проблеми и да изравни неравенствата, които не можем да изкореним. Но, за да се случи това, трябва да сме сигурни, че:
- Това е структурна промяна, защото дигиталните технологии не само улесняват комуникацията, а създават изцяло нова среда, в която упражняваме правата си и получаваме достъп до публични услуги. Затова трябва да осигурим гаранции, че в тази среда са налице необходимите защити – колко е прозрачен и ясен технологичния процес на вземане на решения, как са събрани включената информация и данни, неприкосновеност на личния живот и защита на данни, както и обезпечаване бързо и ефективно обжалване за използване на определена технология и както и възможност за търсене на компенсация при настъпили вреди;
- Правата на човека са в основата на бъдещата законова регулация на изкуствения интелект, тъй като това е най-добрият механизъм за защита на всеки индивид независимо от образователен, социален или обществен статус.
- Говорим за дигитална демокрация, защо за всяка нова тема, която предизвиква ценностна и етична дилема, изисква да се води разговор между всички заинтересовани страни. За да е пълноценен такъв обществен диалог трябва да бъдат подкрепени да се включат в него максимално широк кръг хора, които ще бъдат засегнати от навлизащата технология, независимо дали разбират или не как тя всъщност е създадена и работи.
Разговорът, който водихме с Венелин Стойчев, модератор, Петър Торнев, директор на Технологичния център на Accenture; Ирина Алексиева, Министерство на електронното управление; Захари Янков, БЦНП и Др. Никола Константинов, INSAIT беше изключително съдържателен и със сигурност даде заявка, че подобни интердисциплинарни формати трябва да продължат.
Можете да гледате цялата дискусия Изкуственият интелект – регулация и бъдеще, във връзка с изпълнение на мярка 4 от Четвърти национален план за действие в рамките на инициативата „Партньорство за открито управление.“ Тук.