Სარჩევი:

ღრმა ყალბი: ნეიროსეტს ასწავლიდნენ ხმის და ვიდეოს გაყალბების გენერირებას
ღრმა ყალბი: ნეიროსეტს ასწავლიდნენ ხმის და ვიდეოს გაყალბების გენერირებას

ვიდეო: ღრმა ყალბი: ნეიროსეტს ასწავლიდნენ ხმის და ვიდეოს გაყალბების გენერირებას

ვიდეო: ღრმა ყალბი: ნეიროსეტს ასწავლიდნენ ხმის და ვიდეოს გაყალბების გენერირებას
ვიდეო: 생활병 92강. 삶의 공격으로 만드는 염증과 질병. Inflammation and disease produced in life. 2024, მაისი
Anonim

ნებისმიერი ჩვენგანისთვის „ინდივიდუალური“საინფორმაციო სურათის შესაქმნელად და მასში შერჩეული მედიის გაყალბებისთვის, დღეს ერთი პროგრამისტის ძალისხმევა საკმარისია. ამის შესახებ „იზვესტიას“ხელოვნური ინტელექტისა და კიბერუსაფრთხოების სპეციალისტებმა განუცხადეს.

ცოტა ხნის წინ მათ შეაფასეს, რომ ამას მრავალი გუნდის მუშაობა სჭირდება. ასეთი აჩქარება შესაძლებელი გახდა ნერვულ ქსელებზე თავდასხმის ტექნოლოგიების შემუშავებით და აუდიო და ვიდეო ყალბების წარმოქმნით, პროგრამების გამოყენებით „ღრმა ყალბების“შესაქმნელად. მსგავსი თავდასხმა ცოტა ხნის წინ განხორციელდა გაზეთი იზვესტია, როდესაც ლიბიის სამმა საინფორმაციო პორტალმა ერთდროულად გამოაქვეყნა შეტყობინება, რომელიც, სავარაუდოდ, ერთ-ერთ ნომერში ჩანდა. ექსპერტების აზრით, 3-5 წელიწადში შეიძლება ველოდოთ რობოტი მანიპულატორების შემოჭრას, რომელიც ავტომატურად შეძლებს უამრავი ყალბის შექმნას.

Მამაცი ახალი სამყარო

სულ უფრო მეტია პროექტი, რომელიც არეგულირებს ინფორმაციის სურათს კონკრეტული მომხმარებლების აღქმაზე. მათი მუშაობის ერთ-ერთი მაგალითი იყო სამი ლიბიური პორტალის ბოლო ქმედება, რომლებმაც გამოაქვეყნეს ახალი ამბები, რომელიც სავარაუდოდ გამოქვეყნდა იზვესტიას ნოემბერში 20 ნოემბერს. ყალბის შემქმნელებმა შეცვალეს გაზეთის პირველი გვერდი და გამოაქვეყნეს მესიჯი ფელდმარშალ ხალიფა ჰაფთარსა და ეროვნული თანხმობის მთავრობის (PNS) პრემიერ მინისტრ ფაიეს სარაჯს შორის მოლაპარაკებების შესახებ. ყალბს, იზვესტიას შრიფტით, თან ახლდა ორი ლიდერის ფოტო გადაღებული 2017 წლის მაისში. გამოცემის ლოგოტიპი ამოჭრილია 20 ნოემბრის ფაქტობრივად გამოქვეყნებული ნომრიდან, ხოლო ყველა სხვა ტექსტი გვერდზე 23 ოქტომბრის ნომრიდან.

სპეციალისტების თვალთახედვით, უახლოეს მომავალში ასეთი გაყალბებები ავტომატურად შეიძლება განხორციელდეს.

ტრუმენის შოუ - 2019: როგორ ასწავლეს ნერვულმა ქსელებმა ახალი ამბების სურათის გაყალბება
ტრუმენის შოუ - 2019: როგორ ასწავლეს ნერვულმა ქსელებმა ახალი ამბების სურათის გაყალბება

"ხელოვნური ინტელექტის ტექნოლოგიები ახლა სრულიად ღიაა, ხოლო მონაცემების მიღებისა და დამუშავების მოწყობილობები მინიატურული და იაფი ხდება", - იური ვილსიტერი, ფიზიკურ და მათემატიკურ მეცნიერებათა დოქტორი, რუსეთის მეცნიერებათა აკადემიის პროფესორი, FSUE "GosNIAS" დეპარტამენტის ხელმძღვანელი. განუცხადა იზვესტიას. - ამიტომ, დიდი ალბათობაა, რომ უახლოეს მომავალში სახელმწიფო და მსხვილი კორპორაციები კი არა, უბრალოდ კერძო პირები შეძლებენ ჩვენს მოსმენას და ჯაშუშობას, ასევე რეალობის მანიპულირებას. უახლოეს წლებში შესაძლებელი იქნება მომხმარებლის პრეფერენციების გაანალიზებით მასზე ზემოქმედება ახალი ამბების და ძალიან ჭკვიანური ყალბებით.

იური ვილსიტერის თქმით, ტექნოლოგიები, რომლებიც შეიძლება გამოყენებულ იქნას ფსიქიკურ გარემოში ასეთი ჩარევისთვის, უკვე არსებობს. თეორიულად, რობოტი ბოტების შემოჭრა რამდენიმე წელიწადში შეიძლება მოსალოდნელი იყოს, თქვა მან. აქ შემზღუდველი წერტილი შეიძლება იყოს რეალური ადამიანების რეაგირების მაგალითების დიდი ბაზების საჭიროება ხელოვნურ სტიმულებზე გრძელვადიანი შედეგების თვალყურის დევნით. ასეთი თვალყურის დევნება, სავარაუდოდ, საჭიროებს კიდევ რამდენიმე წლიან კვლევას, სანამ მიზანმიმართული თავდასხმები მუდმივად იქნება მიღებული.

მხედველობის შეტევა

ალექსეი პარფენტიევი, SearchInform-ის ანალიტიკური განყოფილების ხელმძღვანელი, ასევე ეთანხმება იური ვილსიტერს. მისი თქმით, ექსპერტები უკვე წინასწარმეტყველებენ ნერვულ ქსელებზე თავდასხმებს, თუმცა ახლა ასეთი მაგალითები პრაქტიკულად არ არსებობს.

- Gartner-ის მკვლევარები თვლიან, რომ 2022 წლისთვის კიბერშეტევების 30% მიმართული იქნება იმ მონაცემების გაფუჭებაზე, რომლებზედაც სწავლობს ნერვული ქსელი და მზა მანქანათმცოდნეობის მოდელების მოპარვას. შემდეგ, მაგალითად, უპილოტო სატრანსპორტო საშუალებებმა შეიძლება მოულოდნელად დაიწყონ ფეხით მოსიარულეთა სხვა ობიექტების შეცდომით. და ჩვენ არ ვისაუბრებთ ფინანსურ ან რეპუტაციის რისკზე, არამედ ჩვეულებრივი ადამიანების სიცოცხლესა და ჯანმრთელობაზე, მიიჩნევს ექსპერტი.

კომპიუტერულ ხედვის სისტემებზე თავდასხმები მიმდინარეობს კვლევის ფარგლებში. ასეთი თავდასხმების მიზანია ნერვულმა ქსელმა გამოავლინოს ის, რაც სურათზე არ არის. ან, პირიქით, არ დაენახა ის, რაც დაგეგმილი იყო.

ტრუმენის შოუ - 2019: როგორ ასწავლეს ნერვულმა ქსელებმა ახალი ამბების სურათის გაყალბება
ტრუმენის შოუ - 2019: როგორ ასწავლეს ნერვულმა ქსელებმა ახალი ამბების სურათის გაყალბება

”ნერვული ქსელების ტრენინგის სფეროში ერთ-ერთი აქტიურად განვითარებადი თემაა ეგრეთ წოდებული საპირისპირო შეტევები (”შეწინააღმდეგების შეტევები.”- იზვესტია),” განმარტა ვლადისლავ ტუშკანოვმა, კასპერსკის ლაბორატორიის ვებ ანალიტიკოსმა. - უმეტეს შემთხვევაში, ისინი გამიზნულია კომპიუტერული ხედვის სისტემებზე. ასეთი შეტევის განსახორციელებლად, უმეტეს შემთხვევაში, თქვენ უნდა გქონდეთ სრული წვდომა ნერვულ ქსელზე (ე.წ. თეთრი ყუთის შეტევები) ან მისი მუშაობის შედეგებზე (შავი ყუთის შეტევები). არ არსებობს მეთოდები, რომლებსაც შეუძლიათ 100% შემთხვევაში მოატყუონ ნებისმიერი კომპიუტერული ხედვის სისტემა. გარდა ამისა, უკვე შეიქმნა ინსტრუმენტები, რომლებიც საშუალებას გაძლევთ შეამოწმოთ ნერვული ქსელები მოწინააღმდეგეების შეტევების წინააღმდეგობის გაწევაზე და გაზარდოთ მათი წინააღმდეგობა.

ასეთი შეტევის დროს თავდამსხმელი ცდილობს როგორმე შეცვალოს აღიარებული სურათი ისე, რომ ნერვული ქსელი არ იმუშაოს. ხშირად, ხმაური ზედმეტად დევს ფოტოზე, ისევე როგორც ის, რაც ხდება ცუდად განათებულ ოთახში ფოტოგრაფიის დროს. ჩვეულებრივ, ადამიანი კარგად ვერ ამჩნევს ასეთ ჩარევას, მაგრამ ნერვული ქსელი იწყებს გაუმართაობას. მაგრამ ასეთი შეტევის განსახორციელებლად, თავდამსხმელს სჭირდება წვდომა ალგორითმზე.

Neuroset Ashmanov-ის გენერალური დირექტორის, სტანისლავ აშმანოვის თქმით, ამჟამად ამ პრობლემის მოგვარების მეთოდები არ არსებობს. გარდა ამისა, ეს ტექნოლოგია ყველასთვის ხელმისაწვდომია: საშუალო პროგრამისტს შეუძლია მისი გამოყენება Github სერვისიდან საჭირო ღია კოდის პროგრამული უზრუნველყოფის ჩამოტვირთვით.

ტრუმენის შოუ - 2019: როგორ ასწავლეს ნერვულმა ქსელებმა ახალი ამბების სურათის გაყალბება
ტრუმენის შოუ - 2019: როგორ ასწავლეს ნერვულმა ქსელებმა ახალი ამბების სურათის გაყალბება

- ნერვულ ქსელზე თავდასხმა არის ნერვული ქსელის მოტყუების ტექნიკა და ალგორითმები, რაც აიძულებს მას ცრუ შედეგებს გამოიტანოს და რეალურად კი კარის საკეტივით არღვევს, - მიიჩნევს აშმანოვი. - მაგალითად, ახლა საკმაოდ ადვილია სახის ამომცნობი სისტემის ფიქრი, რომ ეს შენ კი არ ხარ, მის წინ არნოლდ შვარცენეგერი - ეს ხდება ადამიანის თვალისთვის შეუმჩნეველი დანამატების ნერვულ ქსელში მოსულ მონაცემებში შერევით. იგივე შეტევები შესაძლებელია მეტყველების ამოცნობისა და ანალიზის სისტემებისთვის.

ექსპერტი დარწმუნებულია, რომ ეს მხოლოდ გაუარესდება - ეს ტექნოლოგიები ფართო მასებშია წასული, თაღლითები უკვე იყენებენ მათ და მათგან დაცვა არ არსებობს. რადგან არ არსებობს დაცვა ვიდეო და აუდიო გაყალბების ავტომატური შექმნისგან.

ღრმა ყალბი

Deepfake ტექნოლოგიები Deep Learning-ზე დაფუძნებული (ნეირონული ქსელების ღრმა სწავლის ტექნოლოგიები. - იზვესტია) უკვე რეალურ საფრთხეს წარმოადგენს. ვიდეო ან აუდიო ყალბი იქმნება ცნობილი ადამიანების სახეების რედაქტირებით ან გადაფარვით, რომლებიც სავარაუდოდ წარმოთქვამენ საჭირო ტექსტს და ასრულებენ აუცილებელ როლს სიუჟეტში.

"Deepfake საშუალებას გაძლევთ შეცვალოთ ტუჩების მოძრაობა და ადამიანის მეტყველება ვიდეოთი, რაც ქმნის რეალიზმის განცდას იმის შესახებ, რაც ხდება", - ამბობს ანდრეი ბუსარგინი, ინოვაციური ბრენდის დაცვისა და ინტელექტუალური საკუთრების დეპარტამენტის დირექტორი Group-IB. - ყალბი ცნობილი სახეები მომხმარებლებს სოციალურ ქსელებში „სთავაზობენ“მონაწილეობას ღირებული პრიზების გათამაშებაში (სმარტფონები, მანქანები, თანხები) და ა.შ. ასეთი ვიდეო პუბლიკაციებიდან ბმულები ხშირად იწვევს თაღლითურ და ფიშინგ საიტებს, სადაც მომხმარებლებს სთხოვენ შეიყვანონ პირადი ინფორმაცია, მათ შორის საბანკო ბარათის დეტალები. ასეთი სქემები საფრთხეს უქმნის როგორც ჩვეულებრივ მომხმარებლებს, ასევე სარეკლამო რგოლებში მოხსენიებულ საჯარო პირებს. ასეთი სახის თაღლითობა იწყებს ცნობილი ადამიანების გამოსახულებების ასოცირებას თაღლითებთან ან რეკლამირებულ საქონელთან და სწორედ აქ ვაწყდებით პირადი ბრენდის დაზიანებას, ამბობს ის.

ტრუმენის შოუ - 2019: როგორ ასწავლეს ნერვულმა ქსელებმა ახალი ამბების სურათის გაყალბება
ტრუმენის შოუ - 2019: როგორ ასწავლეს ნერვულმა ქსელებმა ახალი ამბების სურათის გაყალბება

კიდევ ერთი საფრთხე უკავშირდება სატელეფონო თაღლითობისთვის „ყალბი ხმების“გამოყენებას. მაგალითად, გერმანიაში კიბერკრიმინალებმა ხმის ღრმა ფაქიზი გამოიყენეს, რათა დიდი ბრიტანეთიდან შვილობილი კომპანიის ხელმძღვანელს სასწრაფოდ გადაეტანა 220 000 ევრო სატელეფონო საუბრისას, კომპანიის მენეჯერად წარმოჩენით.უნგრელი მიმწოდებლის ანგარიშზე. ბრიტანული ფირმის ხელმძღვანელს ეჭვი შეეპარა ხრიკში, როდესაც მისმა „ბოსმა“მეორე ფულადი დავალება სთხოვა, მაგრამ ზარი ავსტრიული ნომრიდან მოვიდა. ამ დროისთვის პირველი ტრანში უკვე გადარიცხული იყო უნგრეთის ანგარიშზე, საიდანაც თანხა მექსიკაში გაიტანეს.

გამოდის, რომ თანამედროვე ტექნოლოგიები საშუალებას გაძლევთ შექმნათ ინდივიდუალური ახალი ამბების სურათი, რომელიც სავსეა ყალბი ამბებით. უფრო მეტიც, მალე შესაძლებელი გახდება ყალბი რეალური ვიდეოსა და აუდიოსგან განასხვავოთ მხოლოდ აპარატურით. ექსპერტების აზრით, ზომები, რომლებიც კრძალავს ნერვული ქსელების განვითარებას, ნაკლებად სავარაუდოა, რომ ეფექტური იყოს. ამიტომ, მალე ჩვენ ვიცხოვრებთ სამყაროში, რომელშიც საჭირო იქნება ყველაფრის მუდმივი გადამოწმება.

”ამისთვის უნდა მოვემზადოთ და ეს უნდა იქნას მიღებული”, - ხაზგასმით აღნიშნა იური ვილსიტერმა. - კაცობრიობა არ არის პირველი შემთხვევა, როდესაც ერთი რეალობიდან მეორეში გადადის. ჩვენი სამყარო, ცხოვრების წესი და ფასეულობები რადიკალურად განსხვავდება იმ სამყაროსგან, რომელშიც ჩვენი წინაპრები ცხოვრობდნენ 60000 წლის წინ, 5000 წლის წინ, 2000 წლის წინ და თუნდაც 200-100 წლის წინ. უახლოეს მომავალში ადამიანს დიდწილად წაერთმევა კონფიდენციალურობა და ამიტომ იძულებული გახდება არაფერი დამალოს და პატიოსნად მოიქცეს. ამავდროულად, გარემომცველ რეალობაში და საკუთარ პიროვნებაში ვერაფერი აღიქმება რწმენაზე, ყველაფერი კითხვის ნიშნის ქვეშ და მუდმივად გადამოწმება იქნება. მაგრამ იქნება ეს მომავალი რეალობა საშინელი? არა. ეს უბრალოდ სრულიად განსხვავებული იქნება.

გირჩევთ: