POLITICON.COM

Süni intellekt və mülki hüquqi məsuliyyət

Süni intellekt və mülki hüquqi məsuliyyət

Giriş

Süni intellekt (AI) anlayışı altında kompüter və ya digər cihazlarda insan düşüncəsini simulyasiya edən proqram təminatları nəzərdə tutulur (Hallevy, 2010: 71). Buraya ev təsərrüfatını idarə edən kompüter sistemləri, robotlar, avtonom avtomobillər; pilotsuz uçuş aparatları və s. daxildir. Bu yeni texnologiya müasir həyatımızın hər bir sahəsinə diffuziya etməkdədir. Süni intellekt smartfonlarımızdan tutmuş kosmik tədqiqatlaradək hər bir sahədə istifadə olunur. Hətta hal-hazırda koronavirus pandemiyası dövründə də süni intellekt xəstəliyin diaqnozu və xəstələrə tibbi xidmət də daxil olmaqla müalicə və peyvənd çalışmalarında geniş tətbiq olunur (OECD, 2020). Təbii ki, bu, faydalarla bərabər bir çox risklər də  gətirir. 2019-cu ildə “Uber” avtonom maşınının qəzaya səbəb olması (McCausland, 2019), 2002-ci ildə “Maqna” Elm Mərkəzindən (Magna Science Centre) qaçan robotun küçəyə çıxıb qəza törətməsi (The Age, 2002) bu risklərə misal ola bilər. Belə hallar sual doğurur: sürücüsüz maşın qəzaya uğrayarsa, xəstəxanada Aİ xəstəliyin diaqnozunu səhv qoyarsa, ev təsərrüfatını idarə edən kompüter sistemi hər hansı bir şəkildə yanğına səbəb olarsa məsuliyyət kimin üzərinə düşür? Növbəti paraqraflarda Azərbaycan Respublikası ərazisində süni intellektin vurduğu zərərə görə mülki məsuliyyət məsələsinə aydınlıq gətirməyə çalışacağam.

 

AI vasitə kimi

Qeyd edək ki, hal hazırda nə beynəlxalq hüquq, nə də heç bir milli hüquq süni intellekti hüququn subyekti olaraq tanımır. Hüququn subyekti olmadığından süni intellektin səbəb olduğu zərərə görə məsuliyyətə cəlb edilməsi münkün deyildir. Müxtəlif ədəbiyyatlarda süni intellekt üçün qanunvericiliyə fiziki və hüquqi şəxslərlə yanaşı üçüncü bir kateqoriya kimi elektron şəxs (Electronic personhood) anlayışının daxil edilməsi müzakirə olunsa da, bu hələ yaxın gələcəkdə real görünmür (Solum, 1991: 1231). Hazırki dövrdə isə süni intellektin zərər vurma riskləri isə olduqca realdır. 

İndi isə təsəvvür edək ki, Azərbaycan Respublikası ərazisində süni intellektə malik bir robot və ya kompüter sistemi hər hansı şəxsə mülki xarakterli zərər vurur. Respublika mülki qanunvericiliyi süni intellekti hüququn subyekti olaraq tanımadığından süni intellekt birbaşa məsuliyyət daşıya bilmir. Vurulan zərərin əvəzi isə ödənməlidir. Mülki qanunvericiliyimizdə süni intellektin deliktlərinə həsr olunmuş ayrıca norma olmadığından biz qanunun analogiyasına müraciət etməli olacağıq. Bu halda hansı normalar analoji şəkildə tətbiq edilə bilər?

“Beynəlxalq Müqavilələrdə Elektron Kommunikasiya Vasitələrinin Tətbiqi haqqında” BMT konvensiyasının 12-ci maddəsinə görə kompüterin adından çıxış etdiyi, daha doğrusu, proqramlaşdırıldığı şəxs, həmin kompüter və ya sistem tərəfindən göndərilən mesaja görə məsuliyyət daşıyır. Bu maddə ilə konvensiya “vasitənin sahibi vasitənin istifadəsi ilə əmələ gələn nəticələrə görə məsuliyyət daşıyır” qaydasını rəhbər tutur.

Konvensiyanın qoyduğu bu qaydaya əsasən deyə bilərik ki, süni intellektin fəaliyyəti ilə bağlı məsuliyyət təqsirsiz məsuliyyət (strict liability) normaları ilə tənzimlənməlidir. Bu o mənaya gəlir ki, süni intellektin vurduğu ziyana görə onun mülkiyyətçisi və ya hazırlayanı (developer) təqsirin olub-olmamasından asılı olmayaraq məsuliyyət daşıyır.

Delikt hüququnda süni intellektin vurduğu ziyana görə məsulliyyət dolayı məsuliyyət müəyyən edən normalar da daxil olmaqla təqsirsiz məsulliyyətin tətbiq edilə biləcək anoloji normaları ilə müəyyən oluna bilər. Bu qisim normalara vəhşi heyvanların, uşaqların, işçinin və hətta yüksək təhlükə mənbəyinin vurduğu ziyana görə məsuliyyət müəyyən edən normalar aiddir (Pagallo, 2013).

Təqsirsiz məsulliyyətdən və onun bir forması olan dolayı məsuliyyətdən  danışarkən “Respondeat superior” qaydasını xüsusi qeyd etmək gərəkdir.Latıncadan tərcüməsi “qoy sahib cavab versin” anlamına gəlir və buna bəzən “ağa və xidmətçi qaydası” da deyilir (Owen, 1955: 72). Bu qayda qədim Romada preator hüququ altında meydana gəlmişdir. Qaydaya əsasən, kölənin daxil olduğu kommersiya münasibətindən irəli gələn iddialar kölənin mülkiyyətçisinə yönəldilməli idi. Roma hüququ bu qaydanı müqavilədən kənar hüquq pozuntularına,yəni deliktlərə aid edərək müyyən etdi ki, kölənin “noxal” (ziyan vuran) hərəkətləri kölənin mülkiyyətçisi tərəfindən edilmiş hesab edilir. Bu halda mülkiyyətçi ya  kölənin vurduğu ziyanı ödəməli, ya da həmin köləni ziyan dəyən şəxsə təhvil verməli idi (Buckland, 1908: 98).

Süni intellektin hüquqi statusunu və onun öz əməllərinə görə məsuliyyətini analiz edərkən onun Roma hüququnda kölənin statusu ilə oxşarlıq təşkil etdiyini görürük. Həm AI, həm də kölə hüququn subyekti deyil, daha çox onun obyektidir. Onlar nə hüquqa, nə də vəzifələrə sahibdirlər. Qədim Romada kölənin statusu və süni intellektin statusu arasındakı oxşarlıqdan çıxış edərək, demək münkündür ki, süni intellektin də əməlləri nəticəsində dəyən zərər onun mülkiyyətçisi kompensasiya etməlidir.

 

Süni intellektin fəaliyyətinə görə dolayı məsuliyyət

Süni intellektin qeyri-hüquqi əməllərindən danışarkən nəzərdən keçirilməli kateqoriyalardan biri də “dolayı məsuliyyət” (Vicarious liability) anlayışıdır. Dolayı məsuliyyət təqsirsiz məsuliyyətin bir formasıdır və bura valideynlərin uşağa, ağanın xidmətçiyə və işə götürənin işçinin hərəkətlərinə görə məsuliyyəti aiddir. Dolayı məsuliyyətə əsasən, şəxs üzərində mülki hüquqi məsuliyyət birbaşa olaraq qeyri-hüquqi əmələ  görə yox, bu əməli törədən şəxslə xüsusi münasibətinə əsasən yaranır (Giliker, 2010). Bu  baxımdan da  süni intellektin əməllərinə görə məsuliyyəti onun adından çıxış etdiyi şəxlər, yəni onun mülkiyyətçisi və ya istifadəçisi daşıya bilər. Lakin AR mülki məcəlləsində dolayı məsuliyyət müəyyən edən normaların məzmunu onları süni intellektə tətbiq etməyə mane törədir.

Məsələn, MM-in 1099-cu maddəsinə görə  hüquqi və ya fiziki şəxs öz işçisinin törətdiyi mülki hüquq pozuntusu (delikt) üçün məsuliyyət daşıyır və əmək (qulluq, mənsəb) vəzifələrinin icrası zamanı işçisinin vurduğu zərərin əvəzini ödəməlidir. Bu Məcəllənin bu fəslində nəzərdə tutulan qaydalara tətbiqən, işçi əmək müqaviləsi əsasında iş görən fiziki şəxsdir, habelə mülki hüquq müqaviləsi üzrə iş görən fiziki şəxsdir. Göründüyü kimi, maddənin işçinin ancaq fiziki şəxs ola biləcəyini vurğulamsı onun süni intellektin deliktərinə tətbiqinə imkan vermir.

Yetkinlik yaşına çatmayanların məsuliyyəti ilə bağlı normaların tətbiqində isə problem göründüyü kimi süni intellektlə onun sahibi arasındakı münasibəti valideynlə yaxud qəyyumla uşaq arasındakı münasibətə bərabərləşdirməyin münkünsüzlüyüdür. Hər şeydən öncə bu normanın məntiqi ondan ibarətdir ki,uşaq əməllərinin nəticəsini qavramaq qabiliyyətinə malik deyildir və buna görə də ona nəzarət etməli olan valideyin və ya qəyyum onun deliktlərinə görə dolayı məsuliyyət daşıyırlar. Digər tərəfdən isə süni intellekt öz əməllərinin nəticələrini dərk edir və yetkin insanın rasional düşüncəsinə malik olur. Göstərilən bu fərq yetkinlik yaşına çatmayanların məsuliyyətinə dair MM-in müddəalarının süni intellektə analoji tətbiqini münkünsüz edir.

 

Təqsirsiz məsulliyyət normalarının süni intellektin deliktlərinə analoji tətbiqi

Təqsirsiz məsuliyyətin 3 növü mövcuddur: 
1) Malın, işin və ya xidmətin qüsurları nəticəsində dəyən zərərə görə məsuliyyət (MM. 1128); 
2) Heyvanların vurduğu zərərə görə məsuliyyət (MM. 1110); 
3) Yüksək təhlükə mənbəyi olan fəaliyyətin vurduğu zərərə görə məsuliyyət (MM. 1108).

Malın qüsurlarına görə məsuliyyət müəyyən edən MM-in 1128-ci maddəsinin tətbiqi ilə bağlı problem ondadır ki, süni intellekt davamlı öz təcrübələrini artıran və bu təcrübələrdən öyrənməklə özünü inkişaf etdirən, nəticədə müstəqil qərarlar ala bilən avtonom bir sistemdir. Belə olduqda, iddiaçı üçün AI məhsulunun qüsurlu olduğunu və belə qüsurun sistem istehsalçının və ya developerin mülkiyyətindəykən mövcud olduğunu sübut etmək çox çətin məsələdir. Beləcə, süni intellektin öz iradi qərarları ilə meydana gələn zərərlərlə, onun daxili qüsurları ilə meydana gələn zərərlər arasında sərhədləri müəyyən etmək olduqca çətin olacaq. Bu o deməkdir ki, süni intellektin müstəqil qərarlarından doğan məsuliyyət əvvəl istehalçının və sonda isə developerin üzərinə düşəcək. Bu yolla məsulliyyət yükü böyük ölçüdə sonuncunun üzərinə düşür və bu hüquqi cəhətdən olduqca qüsurlu görünür.

Heyvanların vurduğu zərərə görə məsuliyyətə gəldikdə isə, bu normanın süni intellektə analoji tətbiqi üçün heç bir əsas yoxdur. Çünki süni intellektin fəalliyyəti insanın rasional düşünmə prosessinə bənzər alqoritmik prosessə əsaslanır, heyvanlar isə tamamilə instinktlərinə görə hərəkət edirlər və süni intellektin əksinə olaraq öz hərəkətlərinin nəticələrini qavramaq iqtidarında deyildirlər. Bu deyilənləri nəzərə alaraq belə bir nəticəyə gəlirik ki, Mülki məcəllənin heyvanların vurduğu zərərə görə məsuliyyət müəyyən edən 1110-cu maddəsinin süni intellektin fəaliyyətinə tətbiqi münkün deyildir.

MM-in 1108-ci Maddəsinə əsasən ətrafdakılar üçün yüksək təhlükə ilə bağlı fəaliyyəti (nəqliyyat vasitələrindən, mexanizmlərdən, yüksək gərginlikli elektrik enerjisindən, atom enerjisindən, partlayıcı maddələrdən, güclü təsir edən zəhərlərdən və i.a. istifadə edilməsi; tikinti fəaliyyətinin və onunla bağlı digər fəaliyyətin həyata keçirilməsi və s.) nəticəsində mülki hüquq pozuntusu törətmiş fiziki və hüquqi şəxslər yüksək təhlükə mənbəyinin vurduğu zərərin əvəzini ödəməyə borcludurlar, bu şərtlə ki, zərərin qarşısıalınmaz qüvvənin təsiri və ya zərərçəkənin qəsdi nəticəsində əmələ gəldiyini sübuta yetirməsinlər. Zərərin əvəzini ödəmək vəzifəsi yüksək təhlükə mənbəyinə mülkiyyət hüququ ilə və ya digər qanuni əsasla (icarə hüququ ilə, nəqliyyat vasitəsini idarə etmək hüququna dair etibarnamə üzrə və i.a.) sahiblik edən fiziki və ya hüquqi şəxsin öhdəsinə qoyulur.

Süni intellekti yüksək təhlükə mənbəyi hesab etsək onun mülkiyyətçisi və ya ona başqa cür sahiblik edən şəxs təqsiri olmadıqda belə məsuliyyət daşıya bilər. Bəs süni intellekt yüksək təhlükə mənbəyi ola bilərmi?

Qeyd edək ki, hal-hazırda yüksək təhlükə mənbəyi ilə bağlı iki nəzəriyyə möcudur: Obyekt nəzəriyyəsi və fəaliyyət nəzəriyyəsi. Birinci nəzəriyyəyə görə, yüksək təhlükə mənbəyi fiziki dünyanın şəxs tərəfindən tamamilə idarə və nəzarət edilə bilinməyən obyektidir. İkinci nəzəriyyəyə isə ətrafdakılar üçün yüksək təhlükənin mənbəyi kimi müyyən növ fəaliyyətləri əsas götürür. Hər iki nəzəriyyə müəyyən obyektlərin və onların fəaliyyətinin insanlar üçün yüksək təhlükə yaratmasına işarə edir.

Deməli, yüksək təhlükə mənbəyi dedikdə maddi aləmin spesifik xüsusiyyətlərə malik obyektləri nəzərdə tutulur. Bu anlayış süni intellektə tamamilə uyğundur. Süni intellekt də maddi aləmin özünəməxsüs xüsusiyyətlərinə malik obyektidir,hansı ki, o bu xüsusiyyətlərdən ayrılıqda təsəvvür edilə və ya mövcud ola bilməz. Süni intellekt qəbul etdiyi informasiyadan və öz təcrübələrindən nəticələr çıxarmağa və  bu nəticələrə uyğun müstəqil qərarlar verməyə qadir olduğu üçün onun fəaliyyəti də yüksək təhlükə mənbəyi hesab edilməlidir. Belə halda süni intellektin vurduğu zərərə görə MM-in 1108-ci maddəsinin tətbiqi mümkündür.

Yüksək təhlükə mənbəyinin vurduğu zərərə görə məsuliyyət hətta mülkiyyətçinin təqsiri olmadıqda belə yaranır. Burada məsuliyyətin yaranması risk nəzəriyyəsinə dayanır. Risk nəzəriyyəsinə görə elə fəaliyyətlər var ki, şəxs bütün təhlükəsizlik tədbirlərini görsə belə yenə də prosessə tam nəzarət münkün olmur və zərər dəymə riski həmişə qalır (Dangute, 2006: 222). Süni intellekt texnologiyasında da bu belədir. İstehsalçı, developer və yaxud ona sahiblik edən şəxs bütün təhlükəsizlik tədbirlərini görmüş olsa belə süni intellektin verəcəyi qərarları və onun hərəkətlərini nə proqnozlaşdıra, nə də onlara tam olaraq nəzarət edə bilərlər. 

 

Nəticə

Nə beynəlxalq, nə də milli qanunvericilik süni intellekti hüququn subyekti olaraq qəbul etmir. Hüququn subyekti olmadığından süni intellekt vurduğu zərərə görə məsuliyyət daşıya bilməz. Bu halda məsuliyyət məsələsi 2005-ci il tarixli “Beynəlxalq Müqavilələrdə Elektron Kommunikasiya Vasitələrinin Tətbiqi haqqında”  BMT konvensiyasının 12-ci maddəsinin təsbit etdiyi ümumi qayda ilə həll etmək lazımdır. 12-ci maddəyə görə kompüterin, adından çıxış etdiyi, daha doğrusu proqramlaşdırıldığı şəxs, həmin kompüter və ya sistem tərəfindən göndərilən mesaja görə məsuliyyət daşıyır. Bu maddə ilə konvensiya “süni intellekt vasitə kimi” prinsipini müəyyən edir.

Bu halda süni intellektin mülki hüquq pozmalarına təqsirsiz məsuliyyətin normaları tətbiq olunmalıdır. Yuxarıda müzakirə edilən analoji tətbiq edilə biləcək təqsirsiz məsuliyyət müəyyən edən  normalar arasında mövcud vəziyyətdə süni intellektin vurduğu zərərə görə məsuliyyət məsələsinə tətbiq edilə biləcək ən yaxın norma yüksək təhlükə mənbəyinin vurduğu zərərə görə məsuliyyət müəyyən edən mülki məcəllənin 1108-ci maddəsidir. Yüksək təhlükə mənbəyi anlayışı həm də süni intellektin təbiətinə uyğun gəlir, çünki yüksək təhlükə mənbəyi hesab edilən digər obyektlər və fəaliyyətlər kimi hətta ən yüksək təhlükəsizlik  tədbirləri görülsə belə yenə də süni intellektə tam nəzarət etmək münkün deyildir və onun fəalliyyəti hər bir halda risklər doğurur.

 

İstinadlar:

Buckland, W.W. (1908) The Roman Law of Slavery: The Condition of the Slave in Private Law from Augustus to Justinian. Cambridge, The university press: 1908, p. 98

Dangute, A. (2006) Civil Law, Law of Obligations (Egidijus Baranauskas ed, Vilnius 2006), p. 222

Giliker, P. (2010) Vicarious liability in tort: A comparative perspective (Vol. 69). Cambridge University Press.

Hallevy, G. (2010) The criminal liability of artificial intelligence entities-from science fiction to legal social control. Akron Intell. Prop. J., 4, p.171

OECD Policy Responses to Coronavirus (Covid-19) (2020) Using artificial intelligence to help combat COVID-19. Updated 23 April 2020; http://www.oecd.org/coronavirus/policy-responses/using-artificial-intelligence-to-help-combat-covid-19-ae4c5c21/ 

McCausland, Phil (2019) Self-driving Uber car that hit and killed woman did not recognize that pedestrians jaywalk. NBC News, Nov. 9, 2019; https://www.nbcnews.com/tech/tech-news/self-driving-uber-car-hit-killed-woman-did-not-recognize-n1079281 

Pagallo, U. (2013) The laws of robots: crimes, contracts, and torts (Vol. 10). Springer Science & Business Media.

Owen, R.D. (1955) Tort Liability in German School Law. Law & Contemp. Probs., 20, p. 72

Solum, L.B. (1991) Legal personhood for artificial intelligences. NCL Rev., 70, p. 1231

The Age (2002) Robot on the run. The Age, June 20, 2002; https://www.theage.com.au/technology/robot-on-the-run-20020620-gdubhv.html 
 

Müəllif haqqında:

İbrahim Məmmədzadə 2019cu ildə Bakı Dövlət Universitetinin hüquq fakultəsini bitirib. Hal hazırda Tallinn Texnologiya Universitetində Hüquq və Texnologiya ixtisası üzrə magistr təhsili alır. Əsas tədqiqat sahələr İT məhsullarının hüquqi mühafizəsi, elektron müqavilələr, kiber-cinayətlər və süni intellektin hüquqi statusudur.

 


Digər yazılar