Süni intellekt (AI) texnologiyada yeni isti şeydir, lakin cəmiyyət üçün həm müsbət, həm də mənfi nəticələrə səbəb ola bilər. Süni intellekt (AI) kompüter və maşınların öyrənmə, anlama, problem həll etmə, qərar qəbul etmə, yaradıcılıq və muxtariyyət kimi insan qabiliyyətlərini təqlid etməyə imkan verən texnologiyaya aiddir . Böyük miqdarda məlumatı emal etməklə və nümunələri tanımaqla, AI sistemləri adətən insan zəkasını tələb edən vəzifələri yerinə yetirə bilər və onları müxtəlif sahələrdə getdikcə daha qiymətli edir.
Son illərdə süni intellekt üzrə tədqiqat və inkişafda diqqətin çox hissəsi generativ süni intellektə yönəldi ; orijinal mətn, şəkillər, videolar və digər məzmun formaları yaratmağa qadir olan texnologiya. Süni intellektlə işləyən tətbiqlər və qurğular obyektləri qavramaq və tanımaq, insan dilini başa düşmək və ona reaksiya vermək, davamlı olaraq yeni məlumat və təcrübələrdən öyrənmək qabiliyyətinə malikdir. Bu sistemlər həmçinin qərar qəbuletmə proseslərini təkmilləşdirərək istifadəçilərə və ekspertlərə ətraflı tövsiyələr verə bilər. Bəzi hallarda, süni intellekt müstəqil şəkildə fəaliyyət göstərə bilər , insanın birbaşa iştirakı ehtiyacını azalda və ya hətta aradan qaldıra bilər. Bu avtonom işləmə qabiliyyəti sənayelərdə inqilab edir, əməliyyatları tənzimləyir və çoxsaylı sektorlarda səmərəliliyi artırır.
Süni innovasiya və yaradıcılıq üçün güclü bir vasitə olsa da, ciddi etik narahatlıqlar doğurur. Bir nümunə , əqli mülkiyyət hüquqları, sənətçilər üçün ədalətli kompensasiya və yaradıcı sənayenin bütövlüyü ilə bağlı müzakirələrə səbəb olan AI tərəfindən yaradılan sənətdir . 2023-cü ilin yanvarında müvafiq aidiyyəti və ya razılığı olmadan mövcud sənət əsərlərini təkrarlayan və dəyişdirən AI modelləri ilə bağlı geniş yayılmış şikayətlər ortaya çıxdı. Süni intellekt yaradıcı işləri razılıq olmadan təkrarlamaq və dəyişdirməklə bədii bütövlüyə meydan oxuduğu kimi, o, həm də şəxsi şəkilləri manipulyasiya etmək üçün silahlaşdırılır, çox vaxt dağıdıcı nəticələrə səbəb olur. Süni intellektin digər qeyri-etik istifadəsi dərin saxta pornoqrafiyanı əhatə edir. İspan müğənnisi Rosalia geniş yayılmış bir hadisədə süni intellekt tərəfindən yaradılmış saxta şəklini pisləyib və bunu zorakılıq hərəkəti adlandırıb. O, tək deyildi, ən azı 32 ispaniyalı məşhur süni intellekt tərəfindən yaradılmış oxşar məzmunun qurbanı olub. Eyni şəkildə, süni intellekt qeyri-qanuni onlayn bazarlarda , xüsusən də qeyri-qanuni hərraclarda vasitəçi kimi xidmət etdiyi qaranlıq internetdə sui-istifadə edilir . Bu qeyri-etik tətbiqlər süni intellektin inkişafı və tətbiqində daha güclü qaydalara və etik təminatlara təcili ehtiyac olduğunu vurğulayır.
Nəticədə, aktuallığını sübut edən hüquqi boşluq var . Hər hansı bir süni intellekt növü ilə məşğul olmağa icazə verildiyinə dair beynəlxalq qaydalar hələ qanuni olaraq bəyan edilməyib. Hər bir ölkənin öz münasib bildiyi öz qanunvericiliyi var, lakin Birləşmiş Millətlər Təşkilatının Baş Assambleyasının 2024-cü ilin martında qəbul edilmiş A/78/ L qətnaməsindən başqa heç bir ümumi əsas yoxdur. Bununla belə, bu sənədin əsas diqqəti davamlı inkişafa yönəldilib. Birləşmiş Millətlər Təşkilatının qətnamələri hüquqi cəhətdən məcburi deyil və bu, hələ də öz qanunvericiliyi olmayan ölkələrdə süni intellektdən sui-istifadə imkanları açır. Məsələn, Meksika süni intellektdən etik cəhətdən necə istifadə olunacağına dair heç bir qanuni qanunu olmayan bir ölkədir. 2023-cü ildə vətəndaş təşəbbüsü təqdim edildi, lakin hələ də nəzərdən keçirilir. Ümumilikdə, əsas məsələ, xüsusən də inkişaf etməkdə olan ölkələrdə texnoloji irəliləyişlərin yaranan tendensiyaları tənzimləmək üçün qanunvericilik bazalarının inkişafını üstələməsidir.
Həmçinin, süni intellektdə qərəzlilik əsas etik narahatlıqdır, çünki bu, ayrı-seçkiliyə, sosial bərabərsizliklərə və rəqəmsal istisnalara səbəb ola bilər. Tədqiqat dizaynında, məlumatların toplanmasında və ya şərhində qüsurlar təhrif nəticələr yaratdıqda qərəzlilik baş verir. Məsələn, süni intellekt tərəfindən yaradılan şəkillərin gender stereotiplərini gücləndirdiyi, çox vaxt kişiləri və qadınları ənənəvi və ya şişirdilmiş rollarda təsvir etdiyi aşkar edilmişdir. Bu cür qərəzlər iqtisadi və sosial bölünmələri dərinləşdirərkən mədəni, sosial və bioloji müxtəlifliyi təhdid edir. Məsələn, 2015-ci ildə bir MIT tələbəsi onların üzünün üz proqramı ilə tanınmadığını bildirdi; qara dərili insanları ağ maska taxana qədər aşkar edə bilməzdi. Bu gözə çarpan qərəz sadəcə bir nəzarət deyil - o, sistemli ayrı-seçkiliyi gücləndirir, qanunsuz həbslər, əsas xidmətlərdən kənarlaşdırılma və süni intellektə əsaslanan qərarların qəbulunda irqi bərabərsizliklərin davam etdirilməsi kimi real nəticələrə gətirib çıxarır.
Buna görə də, süni intellektdə etika süni intellekt texnologiyalarının qiymətləndirilməsi və istiqamətləndirilməsi üçün dinamik əsas rolunu oynayır. O, elm və texnologiyanın etik prinsiplərinə əsaslanaraq insan ləyaqətinə, rifahına və zərərin qarşısının alınmasına əsaslanır. Süni intellektin etik inkişafı ədalətin, inamın və ədalətin təmin edilməsi üçün çox vacibdir ki, heç kimin geridə qalmaması – istər süni intellekt texnologiyalarına ədalətli çıxış, istər onların faydaları, istərsə də onların mənfi nəticələrindən qorunma yolu ilə. Eyni zamanda, AI-nin etik risklərini və narahatlıqlarını etiraf etmək innovasiya və inkişafa mane olmamalıdır . Bunun əvəzinə o, yeni imkanlar yaratmalı və etik qaydada aparılan tədqiqat və innovasiyaları təşviq etməlidir. Bu yanaşma süni intellekt texnologiyalarını insan hüquqları, əsas azadlıqlar, dəyərlər, prinsiplər və etik əks etdirmədə əsaslandıraraq gücləndirir.
Süni intellektin müzakirəsi zamanı insanlar tez-tez onun etik nəticələri və potensial riskləri ilə bağlı narahatlıqlarını bildirirlər. Çoxları narahatdır ki, süni intellekt düzgün tənzimlənməsə, iş yerlərinin dəyişdirilməsinə, qərəzli qərarların qəbuluna və ya hətta kritik sistemlər üzərində insan nəzarətinin itirilməsinə səbəb ola bilər. Bəziləri süni intellektin ciddi qaydalar və məsuliyyətli inkişaf yolu ilə etik qaydada idarə oluna biləcəyinə inansa da, digərləri mənfəətə əsaslanan motivlərin bu cür səylərə mane ola biləcəyindən qorxurlar. Buna baxmayaraq, süni intellekt səmərəliliyi və əlçatanlığı artırmaq üçün etik çərçivələr çərçivəsində hazırlana və tətbiq edilə bilər. Buna baxmayaraq, güclü beynəlxalq qanunlar olmadan süni intellekt sosial bərabərsizlikləri daha da gücləndirə, şəxsi həyatın toxunulmazlığını zəbt edə və hətta silahlandırıla bilər ki, bu da bu problemlərin proaktiv şəkildə həllini vacib edir.