Code Velocity
ხელოვნური ინტელექტის უსაფრთხოება

Anthropic უარს ეუბნება ომის მდივანს ხელოვნურ ინტელექტზე, მოიხმობს უფლებებსა და უსაფრთხოებას

·4 წუთი კითხვა·Anthropic·ორიგინალი წყარო
გაზიარება
Anthropic-ის ოფიციალური განცხადება ომის დეპარტამენტის მიერ ხელოვნური ინტელექტის ეთიკასთან დაკავშირებით მიწოდების ჯაჭვის რისკის პოტენციური კლასიფიკაციის შესახებ.

Anthropic მტკიცედ ეწინააღმდეგება ომის დეპარტამენტს ხელოვნური ინტელექტის ეთიკის გამო

უპრეცედენტო ნაბიჯით, რომელმაც ტექნოლოგიურ და თავდაცვით სექტორებში დიდი გამოხმაურება გამოიწვია, ხელოვნური ინტელექტის ლიდერმა Anthropic-მა საჯაროდ გაასაჩივრა ომის დეპარტამენტის (DoW) პოტენციური „მიწოდების ჯაჭვის რისკის“ კლასიფიკაცია. კონფლიქტი გამომდინარეობს Anthropic-ის ურყევი უარიდან, დაუშვას მისი მოწინავე ხელოვნური ინტელექტის მოდელის, Claude-ის, გამოყენება ორი კონკრეტული მიზნისთვის: ამერიკელთა მასობრივი შიდა თვალთვალისთვის და სრულად ავტონომიური იარაღის სისტემებში განთავსებისთვის. ეს დაპირისპირება, რომელიც ომის მდივანმა პიტ ჰეგსეტჰმა X-ის საშუალებით 2026 წლის 27 თებერვალს გამოაცხადა, კრიტიკულ მომენტს აღნიშნავს ხელოვნური ინტელექტის ეთიკის, ეროვნული უსაფრთხოებისა და კორპორატიული პასუხისმგებლობის შესახებ მიმდინარე დებატებში.

Anthropic აცხადებს, რომ მისი პოზიცია არა მხოლოდ ეთიკურია, არამედ სასიცოცხლოდ მნიშვნელოვანია საზოგადოებრივი ნდობისა და უსაფრთხოებისთვის, დაპირდა, რომ იურიდიულად გაასაჩივრებს ნებისმიერ ასეთ კლასიფიკაციას. კომპანიის გამჭვირვალობა ამ საკითხში ხაზს უსვამს მკაფიო მითითებებისა და მტკიცე დიალოგის გაზრდილ აქტუალობას მოწინავე ხელოვნური ინტელექტის სამხედრო და სათვალთვალო გამოყენების შესახებ.

ეთიკური წითელი ხაზი: თვალთვალი და ავტონომიური იარაღი

დავის ძირში Anthropic-ის ორი კონკრეტული გამონაკლისი დევს მისი ხელოვნური ინტელექტის მოდელების კანონიერი გამოყენებიდან ეროვნული უსაფრთხოებისთვის. ეს გამონაკლისები, რომლებმაც, როგორც ცნობილია, ომის დეპარტამენტთან თვეების მოლაპარაკებები ჩიხში შეიყვანა, არის:

  1. ამერიკელთა მასობრივი შიდა თვალთვალი: Anthropic-ს მიაჩნია, რომ ხელოვნური ინტელექტის გამოყენება საკუთარი მოქალაქეების ფართო მონიტორინგისთვის წარმოადგენს ფუნდამენტური უფლებებისა და დემოკრატიული პრინციპების სერიოზულ დარღვევას. კომპანია კონფიდენციალურობას განიხილავს, როგორც სამოქალაქო თავისუფლებების ქვაკუთხედს, და ხელოვნური ინტელექტის ამგვარი განთავსება შეარყევს ამ საფუძველს.
  2. სრულად ავტონომიური იარაღი: კომპანია მტკიცედ აცხადებს, რომ ამჟამინდელი მოწინავე ხელოვნური ინტელექტის მოდელები, მათ შორის Claude, ჯერ არ არის საკმარისად სანდო, რათა განლაგდეს სისტემებში, რომლებიც სიცოცხლისა თუ სიკვდილის გადაწყვეტილებებს იღებენ ადამიანის ჩარევის გარეშე. ასეთმა არასანდოობამ, აფრთხილებს Anthropic, შეიძლება ტრაგიკულად საფრთხე შეუქმნას როგორც ამერიკელ მებრძოლებს, ასევე უდანაშაულო მშვიდობიან მოქალაქეებს. ეს პოზიცია შეესაბამება ხელოვნური ინტელექტის საზოგადოებაში მზარდ შეშფოთებას მოწინავე მოდელების არაპროგნოზირებადი ბუნების შესახებ რთულ, მაღალი რისკის გარემოში.

Anthropic ხაზს უსვამს, რომ ამ ვიწრო გამონაკლისებს, მისი ცოდნით, არ შეუშლიათ ხელი არც ერთი არსებული სამთავრობო მისიისთვის. კომპანიას აქვს ამერიკული ეროვნული უსაფრთხოების ძალისხმევის მხარდაჭერის დადასტურებული ისტორია, მისი მოდელები აშშ-ს მთავრობის კლასიფიცირებულ ქსელებში 2024 წლის ივნისიდან არის განლაგებული. მათი ვალდებულება რჩება, მხარი დაუჭირონ ხელოვნური ინტელექტის ყველა კანონიერ გამოყენებას ეროვნული უსაფრთხოებისთვის, რომლებიც არ სცილდება ამ კრიტიკულ ეთიკურ და უსაფრთხოების ზღვრებს.

უპრეცედენტო კლასიფიკაცია: იურიდიული ბრძოლა ახლოვდება

მდივან ჰეგსეტჰის მუქარა, Anthropic მიწოდების ჯაჭვის რისკად მოინიშნოს, არის უაღრესად უჩვეულო და პოტენციურად დესტრუქციული ქმედება. ისტორიულად, ასეთი კლასიფიკაციები 10 USC 3252-ის მიხედვით დაცული იყო უცხოელი მოწინააღმდეგეებისთვის ან სუბიექტებისთვის, რომლებიც პირდაპირ საფრთხეს უქმნიან სამხედრო მიწოდების ჯაჭვების მთლიანობას. ამ იარლიყის ამერიკული კომპანიისთვის მინიჭება, მით უმეტეს ისეთი კომპანიისთვის, რომელიც სამთავრობო კონტრაქტორი და ინოვატორი იყო, უპრეცედენტოა და საშიშ პრეცედენტს ქმნის.

Anthropic ამტკიცებს, რომ ასეთი კლასიფიკაცია იქნება „იურიდიულად არასწორი“ და შექმნის „საშიშ პრეცედენტს“. ისინი ამტკიცებენ, რომ მათი ეთიკური პოზიცია, რომელიც მიზნად ისახავს არასწორი გამოყენების პრევენციას და ხელოვნური ინტელექტის სანდოობის უზრუნველყოფას, არ წარმოადგენს მიწოდების ჯაჭვის რისკს ტრადიციული გაგებით. გარდა ამისა, კომპანიას, რომელიც 2024 წლის ივნისიდან ჩართულია აშშ-ს მთავრობის კლასიფიცირებულ ქსელებში, მიაჩნია, რომ ეს კლასიფიკაცია უფლებამოსილების გადამეტებაა, რომელიც შექმნილია შესაბამისობის იძულებისთვის.

პოტენციური იურიდიული ბრძოლა უდავოდ შეისწავლის 10 USC 3252-ის ინტერპრეტაციას და მის გამოყენებადობას ხელოვნური ინტელექტის მოწინავე შესაძლებლობებზე, რაც პოტენციურად ჩამოაყალიბებს ხელოვნური ინტელექტის მომავალ მარეგულირებელ ჩარჩოებს თავდაცვის სფეროში.

მომხმარებლებზე გავლენის ანალიზი

Anthropic-ის ერთ-ერთი მთავარი საზრუნავი იყო მიწოდების ჯაჭვის რისკის კლასიფიკაციის პრაქტიკული შედეგების გარკვევა მისი მრავალფეროვანი მომხმარებლებისთვის. მიუხედავად იმისა, რომ მდივან ჰეგსეტჰის განცხადებები ფართო შეზღუდვებს გულისხმობდა, Anthropic წარმოადგენს უფრო ნიუანსირებულ ინტერპრეტაციას, რომელიც ეფუძნება 10 USC 3252-ის გაგებას.

კომპანია არწმუნებს თავის მომხმარებლებს, რომ ასეთი კლასიფიკაციის იურიდიული უფლებამოსილება შეზღუდულია:

მომხმარებლის სეგმენტიDoW-ის მიწოდების ჯაჭვის რისკის კლასიფიკაციის გავლენა (თუ ოფიციალურად მიღებულია)
ინდივიდუალური მომხმარებლებისრულიად უცვლელი. Claude-ზე წვდომა claude.ai-ის საშუალებით შენარჩუნებულია.
კომერციული კონტრაქტები Anthropic-თანსრულიად უცვლელი. Claude-ის გამოყენება API-ის ან პროდუქტების მეშვეობით შენარჩუნებულია.
ომის დეპარტამენტის კონტრაქტორებიმხოლოდ გავლენას ახდენს Claude-ის გამოყენებაზე ომის დეპარტამენტის საკონტრაქტო სამუშაოებზე.
DoW კონტრაქტორები (სხვა მომხმარებლებისთვის/გამოყენებებისთვის)უცვლელი. Claude-ის გამოყენება DoW-ის არასაკონტრაქტო სამუშაოებისთვის ან შიდა გამოყენებისთვის ნებადართულია.

Anthropic ხაზს უსვამს, რომ ომის მდივანს არ გააჩნია კანონმდებლობით გათვალისწინებული უფლებამოსილება, გაავრცელოს ეს შეზღუდვები DoW-ის პირდაპირი კონტრაქტების მიღმა. ამ განმარტების მიზანია შეამციროს გაურკვევლობა ან შეფერხება მისი მომხმარებლებისა და პარტნიორების ფართო ეკოსისტემისთვის. კომპანიის გაყიდვებისა და მხარდაჭერის გუნდები მზადყოფნაში არიან, უპასუხონ ნებისმიერ შემდგომ შეკითხვას.

უფრო ფართო შედეგები ხელოვნური ინტელექტის მმართველობისა და ინდუსტრიული დიალოგისთვის

Anthropic-სა და ომის დეპარტამენტს შორის საჯარო დაპირისპირება ხელოვნური ინტელექტის ინდუსტრიის მთავრობასთან და ეროვნულ უსაფრთხოებასთან ურთიერთობის მომწიფებულ ფაზას ნიშნავს. ის ხაზს უსვამს ხელოვნური ინტელექტის მმართველობის შესახებ ყოვლისმომცველი პოლიტიკის კრიტიკულ საჭიროებას, განსაკუთრებით ორმაგი დანიშნულების ტექნოლოგიებთან დაკავშირებით. Anthropic-ის მზადყოფნა „გაასაჩივროს ნებისმიერი მიწოდების ჯაჭვის რისკის კლასიფიკაცია სასამართლოში“ აჩვენებს ძლიერ კორპორატიულ ერთგულებას ეთიკური პრინციპებისადმი, თუნდაც მნიშვნელოვანი ზეწოლის პირობებში.

ეს სიტუაცია ასევე ხაზს უსვამს ხელოვნური ინტელექტის დეველოპერებზე მზარდ ზეწოლას, მიიღონ უფრო აქტიური როლი მათი ქმნილებების ეთიკური საზღვრების განსაზღვრაში, ტექნიკური განვითარების მიღმა პროაქტიულ პოლიტიკურ ადვოკატირებაზე გადასვლას. ინდუსტრია სულ უფრო მეტად ებრძვის რთულ ეთიკურ საკითხებს, რომლებიც დაკავშირებულია ისეთი ძლიერი მოდელების განთავსებასთან, როგორიცაა Claude. კომპანიები აქტიურად მუშაობენ მავნე ხელოვნური ინტელექტის გამოყენების პრევენციის მეთოდებზე და უზრუნველყოფენ, რომ მათი ტექნოლოგიები გამოყენებული იყოს სასარგებლო მიზნებისთვის.

ამ დაპირისპირების შედეგმა შეიძლება მნიშვნელოვნად იმოქმედოს იმაზე, თუ როგორ ითანამშრომლებენ ხელოვნური ინტელექტის სხვა მოწინავე კომპანიები თავდაცვის უწყებებთან გლობალურად. ამან შეიძლება ხელი შეუწყოს უფრო მტკიცე და გამჭვირვალე დიალოგს ტექნოლოგებს, ეთიკოსებს, პოლიტიკის შემქმნელებსა და სამხედრო ლიდერებს შორის, რათა დადგინდეს საერთო საფუძველი პასუხისმგებლიანი ხელოვნური ინტელექტის ინოვაციისთვის, რომელიც ემსახურება ეროვნულ ინტერესებს ფუნდამენტური ღირებულებებისა და უსაფრთხოების კომპრომისის გარეშე. Anthropic-ის გადაწყვეტილება, დაიცვას თავისი მომხმარებლები და იმუშაოს შეუფერხებელი გადასვლისკენ, თუნდაც ამ „საგანგებო მოვლენების“ დროს, ასახავს ერთგულებას როგორც ეთიკური მთლიანობის, ასევე პრაქტიკული უწყვეტობის მიმართ.

ორიგინალი წყარო

https://www.anthropic.com/news/statement-comments-secretary-war

ხშირად დასმული კითხვები

რა არის ძირითადი დავა Anthropic-სა და ომის დეპარტამენტს შორის?
ფუნდამენტური უთანხმოება Anthropic-ის მიერ მისი მოწინავე ხელოვნური ინტელექტის მოდელის, Claude-ის, გამოყენებაზე უარის თქმის გამო წარმოიშვა ორი კონკრეტული მიზნისთვის: ამერიკელი მოქალაქეების მასობრივი შიდა თვალთვალისთვის და სრულად ავტონომიური იარაღის სისტემებში განთავსებისთვის. ამ ორმა გამონაკლისმა მოლაპარაკებები ჩიხში შეიყვანა, რამაც ომის მდივანი პიტ ჰეგსეტი აიძულა, განეხილა Anthropic-ის მიწოდების ჯაჭვის რისკად კლასიფიკაცია. Anthropic აცხადებს, რომ მისი პოზიცია ეფუძნება ფუნდამენტურ ეთიკურ პრინციპებს, რომლებიც ეხება ძირითად უფლებებს და ხელოვნური ინტელექტის სანდოობის ამჟამინდელ შეზღუდვებს.
რა არის Anthropic-ის ხელოვნური ინტელექტის გამოყენების ორი კონკრეტული ეთიკური გამონაკლისი?
Anthropic თანმიმდევრულად აცხადებს ორ გადამწყვეტ გამონაკლისს მისი ხელოვნური ინტელექტის მოდელების, მათ შორის Claude-ის, კანონიერი გამოყენებიდან. პირველი გამონაკლისი კრძალავს მათი ხელოვნური ინტელექტის გამოყენებას ამერიკელი მოქალაქეების მასობრივი შიდა თვალთვალისთვის, ფუნდამენტური უფლებების დარღვევის მოტივით. მეორე გამონაკლისი ხელს უშლის მათი ხელოვნური ინტელექტის გამოყენებას სრულად ავტონომიურ იარაღში, იმ არგუმენტით, რომ ამჟამინდელ მოწინავე AI მოდელებს არ აქვთ საჭირო სანდოობა და უსაფრთხოების გარანტიები, რათა განლაგდნენ ასეთ კრიტიკულ, სიცოცხლისა თუ სიკვდილის სცენარებში ადამიანის მეთვალყურეობის გარეშე. ეს გამონაკლისები წარმოადგენს მათი ამჟამინდელი დავის საფუძველს ომის დეპარტამენტთან.
რატომ ეწინააღმდეგება Anthropic ხელოვნური ინტელექტის ამ კონკრეტულ გამოყენებებს?
Anthropic-ის წინააღმდეგობები გამომდინარეობს როგორც ეთიკური, ასევე პრაქტიკული მოსაზრებებიდან. სრულად ავტონომიურ იარაღებთან დაკავშირებით, კომპანიას მიაჩნია, რომ დღევანდელი მოწინავე ხელოვნური ინტელექტის მოდელები არ არის საკმარისად სანდო, რათა უზრუნველყოს როგორც მებრძოლების, ასევე მშვიდობიანი მოქალაქეების უსაფრთხოება. არაპროგნოზირებადობამ და შეცდომების პოტენციალმა ასეთ კრიტიკულ გამოყენებებში შეიძლება კატასტროფული შედეგები გამოიწვიოს. რაც შეეხება მასობრივ შიდა თვალთვალს, Anthropic ამას განიხილავს, როგორც ფუნდამენტური უფლებების პირდაპირ დარღვევას, რომელიც შეუთავსებელია დემოკრატიულ პრინციპებთან და ამერიკელი მოქალაქეების კონფიდენციალურობის მოლოდინებთან. მათი პოზიცია ხაზს უსვამს პასუხისმგებლობით ხელოვნური ინტელექტის განვითარების ვალდებულებას, რომელიც პატივს სცემს ადამიანურ ღირებულებებსა და უსაფრთხოებას.
რა არის „მიწოდების ჯაჭვის რისკის კლასიფიკაცია“ და რა პოტენციური შედეგები აქვს მას?
„მიწოდების ჯაჭვის რისკის კლასიფიკაცია“ 10 USC 3252-ის მიხედვით არის ზომა, რომელიც, როგორც წესი, გამოიყენება იმ სუბიექტების მიმართ, რომლებიც საფრთხეს უქმნიან ეროვნულ უსაფრთხოებას ან სამხედრო მიწოდების ჯაჭვების მთლიანობას, ხშირად დაკავშირებულია უცხოელ მოწინააღმდეგეებთან. თუ ის ოფიციალურად იქნება მიღებული Anthropic-ის წინააღმდეგ, ეს იურიდიულად შეზღუდავს Claude-ის გამოყენებას კონკრეტულად ომის დეპარტამენტის კონტრაქტებში. მიუხედავად იმისა, რომ მდივანი ჰეგსეტჰი გულისხმობდა უფრო ფართო შეზღუდვებს სამხედროებთან მომუშავე კომპანიებზე, Anthropic ამტკიცებს, რომ კანონმდებლობით გათვალისწინებული უფლებამოსილება ზღუდავს მის ფარგლებს ომის დეპარტამენტის უშუალო ჩართულობით და არა კომერციული კონტრაქტებით ან სხვა სამთავრობო სამუშაოებით. ეს კლასიფიკაცია ისტორიულად უპრეცედენტოა ამერიკული კომპანიისთვის.
როგორ იმოქმედებს ეს კლასიფიკაცია Anthropic-ის მომხმარებლებზე?
Anthropic განმარტავს, რომ კლასიფიკაციას, თუ ის ოფიციალურად იქნება მიღებული, შეზღუდული გავლენა ექნება. ინდივიდუალური მომხმარებლებისთვის და მათთვის, ვისაც აქვს კომერციული კონტრაქტები, Claude-ზე წვდომა API-ის, claude.ai-ის ან სხვა პროდუქტების მეშვეობით სრულიად უცვლელი დარჩება. ომის დეპარტამენტის კონტრაქტორებისთვის, კლასიფიკაცია მხოლოდ მათ მიერ Claude-ის გამოყენებას შეეხება ომის დეპარტამენტის საკონტრაქტო სამუშაოებზე. Claude-ის გამოყენება ნებისმიერი სხვა მიზნისთვის ან სხვა კლიენტებთან დარჩება შეუზღუდავი. Anthropic ხაზს უსვამს, რომ ომის მდივანს არ გააჩნია კანონმდებლობით გათვალისწინებული უფლებამოსილება, დააწესოს უფრო ფართო შეზღუდვები პირდაპირი სამხედრო კონტრაქტების მიღმა.
რა იქნება Anthropic-ის შემდეგი ნაბიჯი ამ პოტენციური კლასიფიკაციის საპასუხოდ?
Anthropic-მა საჯაროდ განაცხადა თავისი მტკიცე განზრახვის შესახებ, გაასაჩივროს ნებისმიერი ოფიციალური მიწოდების ჯაჭვის რისკის კლასიფიკაცია სასამართლოში. კომპანიას მიაჩნია, რომ ასეთი კლასიფიკაცია იქნება როგორც „იურიდიულად არასწორი“, ასევე შექმნის „საშიშ პრეცედენტს“ ნებისმიერი ამერიკული კომპანიისთვის, რომელიც მთავრობასთან მოლაპარაკებებშია ჩართული. ეს იურიდიული გამოწვევა ხაზს უსვამს მათ ურყევ ერთგულებას ეთიკური პრინციპებისადმი და მათ გადაწყვეტილებას, დაიცვან თავიანთი ოპერაციები და მომხმარებელთან ურთიერთობები იმისგან, რასაც ისინი აღიქვამენ, როგორც უფლებამოსილების გადამეტებას.
რა უფრო ფართო პრეცედენტს ქმნის ეს სიტუაცია ხელოვნური ინტელექტის ინდუსტრიისთვის?
ეს სიტუაცია მნიშვნელოვან პრეცედენტს ქმნის მთელი ხელოვნური ინტელექტის ინდუსტრიისთვის, განსაკუთრებით ხელოვნური ინტელექტის განვითარებისა და განთავსების ეთიკურ საზღვრებთან დაკავშირებით ეროვნული უსაფრთხოების კონტექსტში. ის ხაზს უსვამს ტექნოლოგიურ შესაძლებლობებს, ეთიკურ პასუხისმგებლობასა და სამთავრობო მოთხოვნებს შორის მზარდ დაძაბულობას. Anthropic-ის გამომწვევი პოზიცია შეიძლება წაახალისოს ხელოვნური ინტელექტის სხვა კომპანიებს, დააწესონ საკუთარი წითელი ხაზები დასაშვებ გამოყენებებზე, რაც პოტენციურად ჩამოაყალიბებს მომავალ რეგულაციებსა და ინდუსტრიის ნორმებს ხელოვნური ინტელექტის ეთიკის, ადამიანის უფლებებისა და ავტონომიური სისტემების განვითარების ირგვლივ. ეს აძლიერებს დებატებს იმის შესახებ, თუ სად მდებარეობს ხელოვნური ინტელექტის საზოგადოებრივი გავლენის საბოლოო პასუხისმგებლობა.

იყავით ინფორმირებული

მიიღეთ უახლესი AI სიახლეები ელფოსტაზე.

გაზიარება