ანასტასია მენაბდე ხელოვნური ინტელექტის განვითარებისა და პერსონალური მონაცემების დაცვის შესახებ

Opinions expressed by Entrepreneur contributors are their own.

You're reading Entrepreneur Georgia, an international franchise of Entrepreneur Media.

ანასტასია მენაბდე პროფესიით იურისტია. საქართველოში სამართლის საბაკალავრო პროგრამის დასრულების შემდეგ გადაწყვიტა, სწავლა სამართლისა და ციფრული ტექნოლოგიების მიმართულებით ლაიდენში, ნიდერლანდების სამეფოში გაეგრძელებინა. ამჟამად ანასტასია იურიდიულ კომპანია GLCC-ში მუშაობს და ცდილობს, მიღებული ცოდნა პრაქტიკულად, სამსახურებრივი მოვალეობების შესასრულებლად გამოიყენოს.

Entrepreneur ანასტასიას მიღებული გამოცდილებისა და საქართველოში თანამედროვე ციფრულ ტექნოლოგიებთან საზოგადოების ადაპტირების შესახებ ესაუბრა.

როგორ მოხვდით ციფრული ტექნოლოგიების სამყაროში და რამ განაპირობა თქვენი ინტერესი ციფრული პლატფორმების მიმართ?

ციფრული ტექნოლოგიების სამართალი ძალიან ფართოა და ბევრ სფეროს მოიცავს, როგორიცაა: პერსონალური მონაცემების დაცვა, ხელოვნური ინტელექტის, პლატფორმების რეგულაცია და ა.შ.

ის ფაქტი, რომ ტექნოლოგიები დღითიდღე ვითარდება, ყველასთვის ცნობილია, თუმცა ყველაზე მნიშვნელოვან გამოწვევად განვითარების ამ ტემპთან ერთად ინდივიდების უფლებების დაცვა და მიზანმიმართულად ამ ტექნოლოგიების ჩვენს სასიკეთოდ გამოყენება რჩება.

ჩემი ინტერესიც არის ისეთი რეგულაციებისა და პრაქტიკის დანერგვა, რაც ტექნოლოგიების გამოყენებით ადამიანის უფლებების დარღვევის ფაქტებს შეამცირებს და ამავდროულად, ტექნოლოგიურ ინოვაციებს ხელს შეუწყობს.

როგორ ფიქრობთ, როგორია საქართველოში რეგულაციური მდგომარეობა ციფრული პლატფორმებისა და ხელოვნური ინტელექტის გარშემო?

საქართველოში ჯერჯერობით არ არსებობს ხელოვნური ინტელექტის სისტემების სამართლებრივი რეგულირების მექანიზმები. დღევანდელი მდგომარეობით, ახალ პერსონალურ მონაცემთა დაცვის შესახებ კანონი არის ერთადერთი სამართლებრივი მექანიზმი, რომელიც ევროკავშირის პერსონალურ მონაცემთა დაცვის შესახებ კანონის (GDPR) მსგავსია და დაახლოებულია ევროკავშირის ციფრული ტექნოლოგიების რეგულაციებთან.

საქართველო, ევროკავშირთან შეთანხმების ფარგლებში, ვალდებულია, თავისი კანონმდებლობა ეტაპობრივად ევროკავშირის რეგულაციებთან დაახლოოს ანუ მათი ჰარმონიზაცია მოახდინოს, თუმცა აღნიშნული პროცესი არის საკმაოდ ხანგრძლივი და პერსონალურ მონაცემთა დაცვის კანონის ამოქმედებაც ერთ-ერთი წინ გადადგმულ ნაბიჯს წარმოადგენს.

არსებობს თუ არა პოლიტიკა ან კანონი, რომელიც AI-ით გენერირებულ ჩატბოტებს ან სხვა ხელსაწყოებს არეგულირებს, საჭიროა თუ არა ეს და რისთვის?

ევროკავშირის ხელოვნური ინტელექტის აქტი, რომელიც ძალაში სულ რაღაც 1 წლის წინ შევიდა, დეტალურად არეგულირებს სხვადასხვა რისკის მქონე ხელოვნური ინტელექტის სისტემებს და განსაზღვრავს მათი დეველოპერების ვალდებულებებს.

უფრო მარტივად გასაგები რომ იყოს, რა იგულისხმება ხელოვნური ინტელექტით გენერირებულ ჩატბოტებში, მაგალითად შეგვიძლია მოვიყვანოთ ყველასთვის ცნობილი ChatGPT, რომელიც დღესდღეობით ძალიან პოპულარული ხელსაწყოა ნებისმიერი ინფორმაციის მოსაპოვებლად.

აღნიშნული ჩატბოტი დასმულ კითხვაზე პასუხის გასაცემად იყენებს მონაცემთა ბაზას და მომხმარებლის მიერ წარსულში მიწოდებულ ინფორმაციას. ჩატბოტების რეგულირება საჭიროა, ვინაიდან მომხმარებელი აზიარებს დიდი მოცულობით პერსონალურ და სენსიტიურ ინფორმაციას, ამასთანავე, ჩატბოტის მიერ გაცემული პასუხი ხშირად რეალობასა და ფაქტებს არის მოკლებული, რაც დეზინფორმაციის გავრცელებას უწყობს ხელს. ჩატბოტების, როგორც ხელოვნური სისტემის, რეგულირება ხდება ევროკავშირში შესაბამისი რეგულაციებით, რისი ანალოგიც საქართველოში ჯერჯერობით არ არსებობს.

რა ხდება პერსონალური მონაცემების დაცვის კუთხით, განსაკუთრებით მაშინ, როცა საქმე არასრულწლოვნებსა და სხვა მოწყვლად ჯგუფებს ეხებათ?

პერსონალური მონაცემების დაცვა არასრულწლოვნებისა და სხვა მოწყვლადი ჯგუფების მიმართ განსაკუთრებულ მექანიზმებს საჭიროებს, რადგან ისინი ხშირად ნაკლებად არიან ინფორმირებული თავიანთი უფლებების შესახებ და რისკი მათი ექსპლუატაციისა არის გაცილებით უფრო მაღალი. ხშირად ისეთი სენსიტიური პერსონალური მონაცემების გაზიარებამ, როგორიც არის, მაგალითად, ჯანმრთელობის მდგომარეობა, შესაძლოა აღნიშნული მონაცემების აბსოლუტურად სხვა მიზნისთვის დამუშავება გამოიწვიოს, შედეგად არასრულწლოვნის არაერთი უფლება ირღვევა, მათ შორის პირადი ცხოვრების ხელშეუხებლობის.

თქვენი აზრით, ამ მხრივ ყველაზე გავრცელებული პრობლემა და დარღვევა რაში მდგომარეობს?

ინფორმაციის ნაკლებობა სუბიექტის უფლებებსა და შედეგებზე, რაც გამოწვეული შეიძლება იყოს პერსონალური მონაცემების არამართლზომიერი დამუშავებით. ჩატბოტების დიზაინში გამოყენებული ანთროპომორფია, რაც გულისხმობს ადამიანური თვისებების, ემოციებისა და ქცევების მიკუთვნებას უსულო საგნების მიმართ, მომხმარებელში აჩენს ნდობას, რომ ის არა ჩატბოტს, არამედ რეალურ ადამიანს ესაუბრება, რაც განსაკუთრებით საშიშია მოწყვლადი ჯგუფების შემთხვევაში. შედეგად, ადამიანი, რომელიც არ ფლობს ინფორმაციას აღნიშნულის თაობაზე, უფრო მეტ პერსონალურ მონაცემს აზიარებს და ამ დროს გაზრდილ რისკებს ვერ აფასებს.

თავად მოქალაქეებში როგორია ცნობიერების დონე პირადი მონაცემების დაცვის შესახებ და რა არის საჭირო მის ასამაღლებლად?

ვფიქრობ, მოქალაქეებს არ აქვთ გააზრებული, თუ რამდენად დიდ რისკებთან არის დაკავშირებული მათი პერსონალური მონაცემების გამჟღავნება. შესაძლოა მათ იციან, რომ არ უნდა გააზიარონ პერსონალური მონაცემები, თუმცა არ აქვთ ინფორმაცია, თუ დამატებით რა უფლებებით სარგებლობა შეუძლიათ, როგორებიცაა დამუშავებაზე თანხმობის შესაძლებლობა, მონაცემების წაშლის, განახლების უფლება და ა.შ.

ცნობიერების ამაღლების მიზნით, ვფიქრობ, მიზანშეწონილია სასწავლო დაწესებულებებში, სამუშაო ადგილებში შესაბამისი ტრენინგების/სასწავლო პროგრამების შექმნა, რაც ხელს შეუწყობს მეტი ადამიანის ინფორმირებას, განურჩევლად ასაკისა, მათი პერსონალური მონაცემების დამუშავების თაობაზე.

სამომავლოდ რა არის თქვენი ხედვა არსებული საკითხების მიმართ და როგორ უნდა აღმოიფხვრას მოსალოდნელი საფრთხეები?

ინოვაციასა და ადამიანების უფლებების დაცვას შორის ბალანსის შენარჩუნება დღეს ერთ-ერთი ყველაზე დიდი გამოწვევაა. სამართალი უნდა არეგულირებდეს ციფრულ ტექნოლოგიებს, თუმცა არ უნდა აფერხებდეს მათ განვითარებას, რისი რისკიც მაღალია გადაჭარბებული რეგულაციით, ე.წ. overregulation- ით. არაგამჭვირვალე პროცესები, არაეთიკური მიზნებისთვის მონაცემების გამოყენება, როგორებიცაა ე.წ Deepfake. აღნიშნული გამოწვევები არის თანამედროვე სამყაროს პრობლემები, რომელთა მოგვარების გზები დღესდღეობით შესწავლის პროცესშია, და ჩემს ერთ-ერთ მიზანსაც აღნიშნულ მოგვარების გზებში წვლილის შეტანა წარმოადგენს.