ჩინეთის მეცნიერებათა აკადემიის ავტომატიზაციის ინსტიტუტის პროფესორმა ზენგ იიმ, რომელიც UNESCO-ს Ad Hoc ექსპერტთა ხელოვნური ინტელექტის ეთიკის (AI) ჯგუფის წევრია, გამოთქვა შეშფოთება კაცობრიობის უსაფრთხოების შესახებ. Global Times-ის თავის სვეტში პროფესორმა ხაზი გაუსვა მანქანათმცოდნეობის განვითარების შეზღუდვის მნიშვნელობას.
ამ მოსაზრებას იზიარებს მრავალი სხვა ხელოვნური ინტელექტის ექსპერტი, მათ შორის ილონ მასკი, Apple-ის თანადამფუძნებელი სტივ ვოზნიაკი და ათასზე მეტი სხვა ექსპერტი, რომლებმაც ხელი მოაწერეს ღია წერილს, რომელშიც მოუწოდეს შეჩერდეს ხელოვნური ინტელექტის განვითარების ყველა განვითარება კაცობრიობისთვის შესაძლო საფრთხის გამო.
რატომ შეადარა ჩინეთმა ხელოვნური ინტელექტი სასიკვდილო პანდემიას და ბირთვულ ომს?
ზენგ იიმ ასევე აღნიშნა, რომ ხელოვნურმა ინტელექტუალმა შეიძლება გამოიწვიოს სამუშაო ადგილების დაკარგვა და ადამიანის საქმიანობის შემცირება ბევრ სფეროში, რამაც შეიძლება გამოიწვიოს სოციალური და ეკონომიკური პრობლემები.
„ეფექტის საშიშროება შეიძლება მხოლოდ პანდემიას ან ბირთვულ ომს შევადაროთ. გარდა ამისა, აუცილებელია გათვალისწინებულ იქნეს პოტენციური რისკები, რომლებიც დაკავშირებულია ავტონომიური სისტემების განვითარებასთან, რამაც შეიძლება გამოიწვიოს უბედური შემთხვევები ისეთ სფეროებში, როგორიცაა საავტომობილო და საჰაერო მოგზაურობა.
მიუხედავად იმისა, რომ ხელოვნურ ინტელექტს შეუძლია უზარმაზარი სარგებელი მოუტანოს საზოგადოებას, აუცილებელია გავითვალისწინოთ მისი პოტენციური რისკები და მიიღოთ ზომები კაცობრიობის უსაფრთხოების უზრუნველსაყოფად. შესაძლოა, მანქანური სწავლების განვითარების შეზღუდვა და მისი გამოყენება მხოლოდ გარკვეულ სფეროებში შეიძლება იყოს ამ პრობლემიდან ერთ-ერთი გამოსავალი“,- ამბობს პროფესორი.
ექსპერტის თქმით, ხელოვნური ინტელექტის ტექნოლოგიების განვითარება სწრაფი ტემპით გრძელდება, მაგრამ ამავდროულად, იგნორირებულია თანმხლები ეთიკური საკითხები და რისკები.
ზენგი ამტკიცებს, რომ ხელოვნური ინტელექტის ინჟინრებმა, ისევე როგორც ხელოვნური ინტელექტის სერვისების ბევრმა ინვესტორმა და მომხმარებელმა, უნდა გაიგონ, რომ მათ აქვთ პასუხისმგებლობა უზრუნველყონ ამ ტექნოლოგიის მდგრადი და ჯანსაღი განვითარება.
ექსპერტი ხაზს უსვამს, რომ ხელოვნური ინტელექტის შემუშავებისას აუცილებელია ეთიკური პრინციპების გათვალისწინება, რომელსაც შეუძლია კაცობრიობის დაცვა შესაძლო საფრთხეებისა და რისკებისგან.
„მაგალითად, ხელოვნური ინტელექტი უნდა იყოს შემუშავებული თითოეული ქვეყნის სოციალური და კულტურული მახასიათებლების გათვალისწინებით, რათა თავიდან იქნეს აცილებული ადამიანებით მანიპულაციისა და კონტროლისთვის გამოყენება. გარდა ამისა, კონფიდენციალურობისა და მონაცემთა დაცვის საკითხები უნდა იყოს გათვალისწინებული ხელოვნური ინტელექტის გამოყენებისას“,- აღნიშნავს პროფესორი და მოუწოდებს ხელოვნური ინტელექტის ინჟინრებს, ინვესტორებს და მომხმარებლებს, აიღონ პასუხისმგებლობის წილი, რათა უზრუნველყონ ხელოვნური ინტელექტის განვითარება უსაფრთხო და ეთიკური გზით.
მხოლოდ ამ გზით არის შესაძლებელი ამ ტექნოლოგიის მდგრადი და ჯანსაღი განვითარება და კაცობრიობის პოტენციური საფრთხეების თავიდან აცილება.
ანალიტიკოსთა და მეცნიერთა დარბაზი – ,,დოქტრინა”