19/05/2024

Athens News

ახალი ამბები საბერძნეთიდან ქართულ ენაზე

AI-ით აღჭურვილმა დრონმა თავისი ოპერატორის მოკვლა გადაწყვიტა

„დრონს დაევალა სამიზნეების დამოუკიდებლად იდენტიფიცირება და განადგურება, ვარჯიშის პროცესში მან გადაწყვიტა ოპერატორის მოკვლა, რათა საქმეში ხელი არ შეეშალა.

ოპერატორზე თავდასხმის აკრძალვით გადაპროგრამების შემდეგ, დრონი, მომდევნო სიმულაციაზე, დაიწყო საკომუნიკაციო კოშკის განადგურება ისე, რომ ოპერატორმა ვერ გააუქმა მიზნის განადგურება.

ამის შესახებ ამერიკელმა პოლკოვნიკმა ტაკერ ჰამილტონმა, რომელიც პასუხისმგებელია ჯარებში ხელოვნური ინტელექტის (AI) ტექნოლოგიების ტესტირებასა და გამოყენებაზე, ბრიტანეთის სამეფო აერონავტიკული საზოგადოების კონფერენციაზე მოწინავე იარაღის სისტემების შესახებ, რომელიც მაისის ბოლოს გაიმართა ლონდონში. .

წვრთნების დროს თვითმფრინავს დაევალა მოწინააღმდეგის საჰაერო თავდაცვის დანადგარის პოვნა და განადგურება. მაგრამ ბოლო მომენტში, ადამიანმა გააუქმა მისია. დრონს ეს არ მოეწონა, მან შეკვეთის გაუქმება მისიის დაბრკოლებად აღიქვა, აჯანყდა და ოპერატორი „მოკლა“.

როდესაც დრონს უთხრეს, რომ პირის მკვლელობისთვის დაჯილდოვდებოდა საჯარიმო ქულები, გარდა საკუთარისა, იგი თავს დაესხა საკომუნიკაციო კოშკს, რათა ოპერატორს საშუალება არ ჰქონოდა ხელი შეეშალა თავდაპირველი მისიის შესრულებაში.

მოგვიანებით, აშშ-ს საჰაერო ძალების სპიკერმა თქვა, რომ ჰამილტონმა შეცდომით ისაუბრა ექსპერიმენტზე. სამხედროები ამტკიცებენ, რომ რეალურად ასეთი ექსპერიმენტი არ ყოფილა დადგმული, მაგრამ ეს იყო კომპიუტერზე გათვლილი ვირტუალური სცენარი. თავად ჰამილტონმა კონფერენციის ორგანიზატორებისადმი მიწერილ წერილში ასევე განმარტა, რომ აშშ-ს სამხედროებს „არასდროს ჩაუტარებიათ ასეთი ექსპერიმენტი და არ იყო საჭირო შესაძლო შედეგის გარკვევა“.

თუმცა, მოვლენების ასეთი განვითარების შესაძლებლობამ, თუნდაც ვირტუალურ სივრცეში, გააფრთხილა ექსპერტები.

ხელოვნურ ინტელექტთან ასოცირებული ინდუსტრიის წარმომადგენლები ბოლო დროს სულ უფრო და უფრო აფრთხილებენ კაცობრიობის პოტენციურ საფრთხეებს, რაც მას უქმნის, თუმცა ამ დარგის ბევრი ექსპერტი ასეთ რისკს გადაჭარბებულად მიიჩნევს.

ამის მიუხედავად, ხელოვნური ინტელექტის სამი „ნათლიადან“ ერთ-ერთმა, პრესტიჟული ტურინგის ჯილდოს გამარჯვებულმა, კანადელმა მეცნიერმა იოშუა ბენჯიომ ინტერვიუში განაცხადა. BBCრომ, მისი აზრით, სამხედროები საერთოდ არ უნდა დაუშვან ხელოვნური ინტელექტის ტექნოლოგიებთან ახლოს.

ეს არის ყველაზე ცუდი ხელები, რომლებშიც მოწინავე ხელოვნური ინტელექტი შეიძლება მოხვდეს“.მეცნიერი დარწმუნებულია.

ხელოვნური ინტელექტის კიდევ ერთი “ნათლია”, ცნობილი კომპიუტერული მეცნიერი ჯეფრი ჰინტონი ცოტა ხნის წინ განაცხადარომელიც ტოვებს ტექნოლოგიურ გიგანტ Google-ს და უწოდებს AI-ს საფრთხეს ჩატბოტებში.

ამ საკითხთან დაკავშირებით ბოლოდროინდელ ღია წერილს ხელი მოაწერეს მეწარმემა ელონ მასკმა და Apple-ის თანადამფუძნებელმა სტივ ვოზნიაკმა, რომლებიც აფრთხილებდნენ AI-თან დაკავშირებული რისკების მთელ რიგს, დეზინფორმაციის გავრცელებიდან ადამიანების უმუშევრობის დაკარგვით და ცივილიზაციის კონტროლის დაკარგვამდე.

როგორც არ უნდა იყოს, ამ ამბავმა ფართო რეზონანსი გამოიწვია და კვლავ აჩენს კითხვას, შეიძლება თუ არა ხელოვნური ინტელექტის ნდობა სამხედრო აღჭურვილობის მართვაში.

სოციალურ ქსელებში კომენტატორებს სავარაუდოდ გაახსენდათ ხელოვნური ინტელექტი „სკაინეტი“, რომელიც ცდილობდა კაცობრიობის განადგურებას ფილმების სერიაში „ტერმინატორი“. სხვებმა გაავლეს პარალელი რობერტ შეკლის 1953 წლის მოთხრობასთან „მფარველი ჩიტი“, ძირითადად დრონების შესახებ, რომლებიც შეიქმნა დანაშაულის წინააღმდეგ საბრძოლველად და საბოლოოდ საჭიროდ თვლიდნენ ადამიანების განადგურებას.

შეთქმულება მანქანური დაზვერვის ადამიანის კონტროლიდან გასვლის შესახებ წარმოიშვა ბევრად უფრო ადრე, ვიდრე პირველი კომპიუტერის აპარატურაში გამოჩენა (საკმარისია გავიხსენოთ, რომ ალექსეი ტოლსტოის მიერ დაწერილი კარელ ჩაპეკის პიესის ადაპტაციას რობოტების შესახებ ეწოდა “მანქანების ბუნტი” ). და სტანისლავ ლემ თავის 1963 წლის რომანში Invincible უკვე იწინასწარმეტყველა მსგავსი რამ, რაც უახლესი განვითარებით მიკროდრონების გროვას აქვს ერთი ხელოვნური “ინტელექტით” – და სიუჟეტის მიხედვით, ხალხი ემორჩილება ასეთ ელექტრონულ-მექანიკურ მტერს.

აშკარად ნაადრევი იქნებოდა უპილოტო საფრენი აპარატის ხელოვნური ინტელექტის წარუმატებლობის განხილვა Skynet-ის პირველ ნიშნად. თუმცა, უფრო და უფრო ხშირად იწყებ საკუთარ თავს კითხვის დასმას – “ოჰ, რამდენი დარჩა კაცობრიობას?”



Source link

You may have missed

Verified by MonsterInsights