ყალბი ამბები ხელოვნური ინტელექტის ეპოქაში - საფრთხეები და მათი დაძლევის გზები
თანამედროვე გამოწვევა - ხელოვნური ინტელექტით გენერირებული ყალბი ამბები
ხელოვნურმა ინტელექტმა ფუნდამენტურად შეცვალა ზოგადად საინფორმაციო გარემო და ამავდროულად, ყალბი ამბების შექმნის, გავრცელებისა და გამოვლენის პრაქტიკები. ყალბი ამბების ფენომენის მკვლევრები დღევანდელ რეალობას აღწერენ, როგორც „მნიშვნელოვან საფრთხეს მსოფლიო საინფორმაციო ეკოსისტემისთვის“. ყალბი ამბების გავრცელებას, რაშიც, ძირითადად, მოიაზრებენ მისინფორმაციასა (ცრუ ინფორმაცია, რომელიც გავრცელებულია ბოროტი განზრახვის გარეშე) და დეზინფორმაციას (განზრახ შეთხზული ამბავი, რომელიც მიზნად ისახავს აუდიტორიის შეცდომაში შეყვანას), მნიშვნელოვნად უწყობს ხელს დახვეწილი გენერაციული ხელოვნური ინტელექტის სისტემები, დიდი ენობრივი მოდელები (Large Language Models – ((LLM)) და ე. წ. გაყალბებული ვიდეოები (Deepfake).
„დიდი ენობრივი მოდელები (LLM) არის მოწინავე ხელოვნური ინტელექტის სისტემები, რომლებიც იყენებს უზარმაზარი რაოდენობის მონაცემებსა და დახვეწილ ალგორითმებს ადამიანის ენის გასაგებად და შესაბამისი უკუკავშირის გენერირებისთვის“. LLM ტექსტზე დაფუძნებული დეზინფორმაციის გენერირებისთვის ეფექტურ ხელსაწყოს წარმოადგენს. კვლევები აჩვენებს, რომ LLM-ს შეუძლია შექმნას ძალიან დამაჯერებელი გაყალბებული ინფორმაცია, რომლის ტრადიციული მეთოდებით ამოცნობა დიდ სირთულეებთან არის დაკავშირებული. აღნიშნული მოდელები ქმნის უპრეცედენტო მასშტაბის შესაძლებლობას ყალბი სიხალეების, სოციალური მედიის პოსტებისა და მანიპულაციური ნარატივების შექმნისთვის. Sun et al. (2024) თანახმად, LLM-ის მიერ გენერირებული ტექსტები, ლინგვისტური დახვეწილობისა და კონტექსტური თანმიმდევრულობის გამო, ინფორმაციის მომხმარებლებისთვის მნიშვნელოვნად ართულებს მათ ამოცნობას. აღნიშნულ მოდელებს შეუძლია წერის სტილის ადაპტირება, ფაქტობრივი ელემენტების ჩართვა სანდოობის გასაზრდელად და კონკრეტული აუდიტორიისა თუ პლატფორმისთვის მორგებული შინაარსის გენერირება. Yi et al. (2025) აღნიშნავს, რომ ხელოვნური ინტელექტის განვითარება, ერთი მხრივ, იძლევა ახალ ხელსაწყოებს ყალბი ამბების აღმოჩენისთვის, მაგრამ, ამის პარალელურად, ქმნის ახალ გამოწვევებსაც, რადგან მისი უნარი - შექმნას მაქსიმალურად „ადამიანური“ ტექსტები - სულ უფრო იზრდება. ვითარებას ისიც ართულებს, რომ LLM-ის გამოყენება შესაძლებელია არა მხოლოდ ცალკეული ყალბი სიახლის შესაქმნელად, არამედ ისეთი კოორდინირებული დეზინფორმაციული კამპანიების საწარმოებლადაც, რომლებიც ხასიათდება განმეორებადი, თანმიმდევრული ნარატივებითა და სოციალური ქსელების მრავალ პლატფორმაზე გავრცელების შესაძლებლობით.
ხელოვნური ინტელექტისა და ყალბი ამბების კონტექსტში, კიდევ ერთი საყურადღებო საკითხია ე. წ. Deepfake ტექნოლოგია. „Deepfake არის ხელოვნურად გენერირებული მედია, რომელიც ციფრულადაა მანიპულირებული გარკვეული პირის აუდიო/ვიზუალური მონაცემების შესაცვლელად. “Deep” ტერმინში იგულისხმება ფოტო თუ ვიდეო მასალის გაყალბება „Deep learning“ მეთოდით, რომელიც მოიაზრებს მანქანური სწავლების ღრმა აღქმა-ათვისების მეთოდს ხელოვნური ნეირონული ქსელებით (ANN)“. კვლევების თანახმად, Deepfake წარმოადგენს განსაკუთრებით სახიფათო ფენომენს იმ თვალსაზრისით, რომ ადამიანები უფრო მეტად ენდობიან ვიზუალურ ან აუდიო მტკიცებულებებს, ვიდრე, მაგალითად, ტექსტს. ამ ფონზე კი, Deepfake ქმნის ერთგვარ „ინფოკალიფსს“ (Rajagopal et al. 2023), სადაც საკუთარი თვალით ნანახი ან მოსმენილი ინფორმაციაც კი აღარ ნიშნავს, რომ იგი ასი პროცენტით სარწმუნოა. ამასთან, Deepfake-ების სწრაფი ტემპებით განვითარება უზრუნველყოფს იმას, რომ ისინი უფრო და უფრო რეალისტური ხდება. ეს ტექნოლოგიები სახის შეცვლის, ხმის კლონირებისა და სხეულის ფორმების მიმსგავსების საშუალებასაც იძლევა, რაც დამაჯერებლად წარმოაჩენს კონკრეტული ინდივიდის ისეთ ქცევას ან ნათქვამს, რომელიც, სინამდვილეში, არასდროს მომხდარა. მსგავსი შესაძლებლობები სცდება წმინდა ტექნიკურ საკითხებს და დიდ გავლენას ახდენს მთლიანად საზოგადოებაზე. Deepfake საფრთხეს უქმნის ადამიანის პირად სივრცეს, აზიანებს პოლიტიკურ დისკურსს საჯარო პერსონების გაყალბებული განცხადებებით და ძირს უთხრის სანდო მედიასაშუალებების ავტორიტეტს საზოგადოების თვალში.
ყალბი ამბების კონტექსტში მნიშვნელოვანია გენერაციული ხელოვნური ინტელექტის განხილვაც. „გენერაციული ხელოვნური ინტელექტი (Gen AI) წარმოადგენს ხელოვნური ინტელექტის ისეთ ტიპს, რომელიც ადამიანის ჩარევის გარეშე ქმნის შინაარსს - ტექსტს, გამოსახულებებს და მუსიკასაც კი. ეს ტექნოლოგია იყენებს რთულ ალგორითმებსა და მანქანური სწავლების მოდელებს არსებული მონაცემებიდან კანონზომიერებებისა და წესების დასამახსოვრებლად. შედეგად, იქმნება ახალი შინაარსი, რომელიც სტილითა და სტრუქტურით ორიგინალის მსგავსია“. თანამედროვე გენერაციული ხელოვნური ინტელექტის სისტემები სულ უფრო ეფექტიანად მოქმედებს მრავალ განზომილებაში, აერთიანებენ ტექსტს, სურათებს, აუდიო- და ვიდეომასალას რთული დეზინფორმაციული კამპანიების შესაქმნელად. GenAI-ის კვლევა ავლენს, ერთი შეხედვით, სარწმუნო, მაგრამ შეთხზული შინაარსის შექმნის შესაძლებლობებს, რომლებიც, მეტი დამაჯერებლობისთვის, მედიის მრავალ ტიპს აერთიანებს. ეს ინტეგრაცია დეზინფორმაციის აღმოჩენას უფრო რთულს ხდის, რადგან მოითხოვს მრავალი კომპონენტის თანადროულ ანალიზსა და მათ შორის შეუსაბამობების გამოვლენას.
როგორც აღვნიშნეთ, ხელოვნური ინტელექტით გენერირებულ ყალბ ამბებს ან მასშტაბურ დეზინფორმაციულ კამპანიებს სამიზნე სოციუმზე გავლენის მოხდენის შესაძლებლობა აქვს. არაერთი კვლევის თანახმად, მსგავსი კამპანიები გამოყენებულია საარჩევნო პროცესების, ზოგადი პოლიტიკური დისკურსისა თუ სამოქალაქო ჩართულობის წინააღმდეგ. სხვადასხვა მნიშვნელოვანი მოვლენის შესწავლა ასახავს, თუ როგორ შეუძლია ხელოვნური ინტელექტით გენერირებულ დეზინფორმაციას, სწრაფად გაავრცელოს პოლიტიკურად მოტივირებული, მანიპულირებული „ახალი ამბავი,“ რომელიც გავლენას ახდენს საზოგადოებრივ აზრსა და ქცევაზე. ხელოვნური ინტელექტის სისტემების შესაძლებლობა, მასშტაბურად წარმოქმნას მიზანმიმართული დეზინფორმაცია, იძლევა დახვეწილი გავლენის ოპერაციების ჩატარების საშუალებას, კონკრეტული დემოგრაფიული ჯგუფების ან გეოგრაფიული არეალის მიზანში ამოსაღებად. დემოკრატიულ სისტემებზე მიტანილი ეს იერიშები შესაბამის ნეგატიურ შედეგებს იწვევს. მკვლევრები აღნიშნავენ, რომ ხელოვნური ინტელექტით გენერირებულ ყალბ ამბებს შეუძლია ამომრჩეველთა აქტივობაზე ზეწოლა, პოლიტიკური პოლარიზაცია, საზოგადოებაში ინსტიტუტებისადმი ნდობის შერყევა და კრიტიკულ პოლიტიკურ საკითხებზე საზოგადოებრივი აზრით მანიპულირება.
ისევე, როგორც ტრადიციული მეთოდებით გავრცელებულ დეზინფორმაციას, ხელოვნური ინტელექტით გენერირებულ ყალბ ნარატივებსაც აქვს ნეგატიური ეფექტი ზოგად საინფორმაციო ეკოსისტემასა და საზოგადოების ნდობაზე. ამ სფეროს მკვლევართა შეშფოთების საგანს წარმოადგენს ინფორმაციული ეკოსისტემების მიმართ საზოგადოების ნდობის ეროზია. კვლევები აჩვენებს, თუ როგორ ქმნის ხელოვნური ინტელექტით გენერირებული ყალბი ამბების გავრცელება ფენომენს, რომელსაც მკვლევრები „ინფორმაციულ აშლილობას“ უწოდებენ, როცა რიგითი მოქალაქეებისთვის სულ უფრო რთულდება ავთენტიკური შინაარსის გამოგონილისგან გარჩევა. შედეგად, შეიძლება ითქვას, „ბინძურდება“ საინფორმაციო ველი და რთულდება სანდო და არასანდო წყაროების ერთმანეთისგან გამიჯვნა. ამ თემაზე ჩატარებული კვლევები ავლენს შემაშფოთებელ პარადოქსს. კერძოდ, მიუხედავად იმისა, რომ დეზინფორმაციის შესახებ საზოგადოების ცნობიერება გაიზარდა, ყალბი ამბების ამოცნობისა და მათ უკან მდგომი პროცესების გაგების უნარი კვლავ შეზღუდულია. საბოლოოდ, ეს ნეგატიური გავლენა ინსტიტუციურ ნდობაზეც ვრცელდება. კვლევები მიუთითებს, რომ ხელოვნური ინტელექტით გენერირებული ყალბი ამბები ამცირებს საზოგადოების ნდობას მედიაორგანიზაციების, სამეცნიერო ინსტიტუტებისა და სამთავრობო უწყებების მიმართ.
კოლექტიური ზემოქმედების გარდა, ხელოვნური ინტელექტით გენერირებული ყალბი ამბები სერიოზულ ინდივიდუალურ რისკებსაც წარმოშობს. ე. წ. Deepfake-ები ხელს უწყობს პირად მონაცემებთან დაკავშირებული ყალბი შინაარსის უნებართვოდ შექმნას, რაც ხშირად არღვევს პირადი ცხოვრების კონფიდენციალურობას. კვლევები აღწერს ე. წ. სინთეტიკური მედიის გამოყენების შემთხვევებს შევიწროების, რეპუტაციის შელახვისა და თაღლითობისთვის. აგრეთვე, ხელოვნური ინტელექტით გენერირებული ყალბი ამბების ზემოქმედებამ შეიძლება გამოიწვიოს ინდივიდის დაბნეულობა, შფოთვა და ცინიზმი ინფორმაციის წყაროების მიმართ.
ხელოვნური ინტელექტით გენერირებული ყალბი ამბების აღმოჩენის გზები
ხელოვნური ინტელექტით გენერირებული ყალბი ამბების წინააღმდეგ ტექნიკური კონტრზომების უმეტესობის საფუძველს მანქანური სწავლების მიდგომები წარმოადგენს. ეს მიდგომები მოიცავს ენობრივი ნიმუშების (სტილისტური მახასიათებლები, ტექსტის ლოგიკური თანწყობის ანალიზი, ფაქტობრივი თანმიმდევრულობა), ვიზუალური არტეფაქტების (ფოტოებში გენერირების კვალის ძიება, ვიდეოში არსებული შეუსაბამობები) და ქცევითი სიგნალების (გავრცელების პატერნები, არაავთენტიკური კოორდინირებული ქცევა) ანალიზს. თუმცა აღნიშნულ მიდგომებს აქვს თავისი ლიმიტები, რადგან აღმოჩენის სისტემების გაუმჯობესებასთან ერთად, ადაპტირდება გენერაციის მოდელებიც აღმოჩენის თავიდან ასაცილებლად, რაც ქმნის ერთგვარ დაუსრულებელ რბოლას. იმის გათვალისწინებით, რომ ხელოვნური ინტელექტით გენერირებული ყალბი ამბები ხშირად მოიცავს მრავალ განზომილებას, მკვლევრები გვთავაზობენ აღმოჩენის მულტიმოდალური მიდგომებს, რომლებიც ერთდროულად აანალიზებს ტექსტს, სურათებს, აუდიო და ვიდეო მასალებს. ეს სისტემები ადგენს შეუსაბამობებს მოდალობებს შორის, მაგალითად, შეუსაბამობებს ტუჩების მოძრაობებსა და ხმას შორის ვიდეოში, ან წინააღმდეგობებს ტექსტსა და სურათებს შორის. ხელოვნური ინტელექტის გენერირებული შინაარსის აღმოსაჩენად მნიშვნელოვანი ხელსაწყოა ე.წ. ციფრული მარკირება, რომელიც გულისხმობს ფოტოებისა თუ ვიდეოების გენერირების პროცესში როგორც ხილული, ისე უხილავი ნიშნების ჩანერგვას. ეს პროცესი ხელოვნური ინტელექტის პლატფორმებისგან ისეთი სპეციფიკური ნიშნების გამოყენებას მოითხოვს, რომლებიც სხვადასხვა ტიპის მანიპულაციებს (მაგ. შეკუმშვა, ამოჭრა, ფილტრაცია და ა.შ.) გაუძლებს და შემოწმების სისტემებისთვის კვლავ ამოსაცნობი იქნება.
ლიტერატურა აღწერს ხელოვნური ინტელექტით გენერირებულ ყალბ ამბებზე პოლიტიკის მიდგომებსა და მარეგულირებელ რეაგირებას, რომელთა შორის განსაკუთრებული ყურადღება ეთმობა ევროპულ ინიციატივებს. Gaborit-ი ხაზს უსვამს ევროკავშირის ხელოვნური ინტელექტის აქტს, როგორც მნიშვნელოვან მარეგულირებელ ჩარჩოს, რომელიც ეხება ხელოვნური ინტელექტით გენერირებულ დეზინფორმაციას. ეს საკანონმდებლო აქტი ადგენს გამჭვირვალობის, რისკის შეფასებისა და ანგარიშვალდებულების მოთხოვნებს იმ ხელოვნური ინტელექტის სისტემებისთვის, რომლებსაც შეუძლია დეზინფორმაციის გენერირება ან გავრცელება. Shoaib et al. (2023) ემხრობა გენერაციული ხელოვნური ინტელექტის ეთიკური გამოყენების შესახებ გლობალური კონსენსუსის მიღწევას და კოორდინირებული პოლიტიკური ინიციატივების განხორციელებას სხვადასხვა იურისდიქციაში. ტრანსნაციონალური დეზინფორმაციული კამპანიების გამოწვევა მოითხოვს ჰარმონიზებულ მარეგულირებელ მიდგომებს, რომლებსაც შეუძლია მრავალი იურისდიქციიდან წარმოშობილი კონტენტის დაფარვა. კვლევები ასევე საუბრობს სექტორულ რეგულაციებზე, რომელთა ფარგლებშიც შესწავლილია სოციალური მედიის პლატფორმების პოლიტიკა, რომელიც მოითხოვს გამჭვირვალობას კონტენტის მოდერაციაში და თანამშრომლობას ფაქტების გადამმოწმებელ (Fact-Checking) ორგანიზაციებთან. თუმცა Gaborit-ი (2024) აღნიშნავს, რომ AI „დეზინფორმაციაზე რეაგირება ჯერ კიდევ ადრეულ ეტაპზეა“, რაც მიუთითებს მარეგულირებელი ჩარჩოს ეფექტურობის მნიშვნელოვან ხარვეზებზე.
აქვე აღსანიშნავია, რომ ხელოვნური ინტელექტით გენერირებული ყალბი ამბების წინააღმდეგ ხედვები და პოლიტიკა აქვს სოციალური ქსელის პლატფორმებსაც. თუმცა აქაც ვლინდება ეფექტურობასთან დაკავშირებული გამოწვევები. სოციალური ქსელების პლატფორმების ინიციატივებიდან, აღსანიშნავია კონტენტის ეტიკეტირების (ხელოვნური ინტელექტით გენერირებული კონტენტის მონიშვნა), ალგორითმზე დაფუძნებული მიდგომების (საეჭვო დეზინფორმაციის ხილვადობის შემცირება) და ანგარიშების შეზღუდვების (ყალბი ამბების განმეორებით გაზიარების შეზღუდვა) მცდელობები. თუმცა არსებობს მოსაზრებები, რომ ინდუსტრიის ნებაყოფლობით ინიციატივებს აკლია აღსრულების მექანიზმები და ანგარიშვალდებულება. გარდა ამისა, კონტენტის მოდერაციას აქვს კიდევ ერთი გამოწვევა - საფრთხე სიტყვისა და გამოხატვის თავისუფლებისთვის. კერძოდ, აგრესიულმა ანტიდეზინფორმაციულმა პოლიტიკამ შეიძლება ჩაახშოს თავისუფალი სიტყვა ან შექმნას ცენზურის რისკები, რადგან ხშირად ზღვარი მანიპულირებულ ინფორმაციასა და გამოხატვის თავისუფლებას შორის ძალიან ბუნდოვანია.
ხელოვნური ინტელექტით გენერირებული ყალბი ამბების წინააღმდეგ, ბუნებრივია, არ არსებობს ერთი კონკრეტული მექანიზმი, რომელიც პრობლემას სრულად მოაგვარებს. ამდენად, მკვლევრები ხაზს უსვამენ სექტორებს შორის თანამშრომლობის აუცილებლობას, რომელშიც მონაწილეობენ ტექნოლოგიური კომპანიები, სამთავრობო უწყებები, აკადემიური ინსტიტუტები, სამოქალაქო საზოგადოების ორგანიზაციები და მედიასაშუალებები. წარმატებული თანამშრომლობის მაგალითები შეიძლება იყოს საჯარო და კერძო პარტნიორობა საფრთხეების შესახებ ინფორმაციის გაზიარებით, აკადემიისა და AI ინდუსტრიის თანამშრომლობა ყალბი ამბების აღმოჩენის ტექნოლოგიების განვითარებისთვის და ინიციატივები ციფრული წიგნიერების გასავრცელებლად.
ზემოთ ჩამოთვლილი კონტრზომებიდან, განსაკუთრებულ ყურადღებას იპყრობს ე.წ. ციფრული წიგნიერება, რომელიც გულისხმობს ინდივიდების იმ ცოდნითა და უნარებით აღჭურვას, რომლებიც აუცილებელია თანამედროვე ციფრულ სამყაროში არსებობისთვის. ბუნებრივია, საზოგადოების დიდი ნაწილის შესაბამისი უნარებით აღჭურვა საკმაოდ დიდ დროსა და რესურსს მოითხოვს, თუმცა, ამავდროულად, შესაძლოა ყველაზე ეფექტური და უსაფრთხო გზა იყოს დეზინფორმაციის წინააღმდეგ ბრძოლაში.
ინდივიდზე ორიენტირებული მიდგომები და ციფრული წიგნიერება
კვლევების თანახმად, ხელოვნური ინტელექტით გენერირებული ყალბი ამბების წინააღმდეგ ბრძოლის ერთ-ერთი მთავარი იარაღი ციფრული და მედიაწიგნიერებაა, რაც ინდივიდების კრიტიკული აზროვნების განვითარებასა და მათი იმ უნარებით აღჭურვას გულისხმობს, რომლებიც დეზინფორმაციის იდენტიფიცირებაში დაეხმარებათ. მეტიც, მსგავსი ძალისხმევა არა მხოლოდ სიყალბის იდენტიფიცირების შესაძლებლობას აძლევს ადამიანს, არამედ მასთან შეწინააღმდეგების უნარსაც. თავის მხრივ, ციფრული წიგნიერება რამდენიმე მნიშვნელოვან კომპონენტს მოიცავს, ესენია: ხელოვნური ინტელექტის შესაძლებლობებისა და ლიმიტების ცოდნა; ყველაზე გავრცელებული მანიპულაციური ტექნიკების ამოცნობა; ინფორმაციის წყაროების გადამოწმება; ახალი ამბის შინაარსის სანდოობის შეფასება და ე.წ. ჯანსაღი სკეპტიციზმი (რომელიც არ უნდა გადაიზარდოს ცინიზმსა და მედიის მიმართ სრულ უნდობლობაში) ნებისმიერი ახალი ამბის მიმართ. ამასთან, ციფრული წიგნიერების ხელშემწყობი კამპანიები არ უნდა იყოს ერთჯერადი ხასიათის და მუდმივად უნდა ვითარდებოდეს ხელოვნური ინტელექტის განვითარებასთან ერთად.
ამდენად, მიუხედავად იმისა, რომ ინსტიტუციური რეაგირება, ტექნიკური გადაწყვეტები და საკანონმდებლო რეგულაციები იძლევა ხელოვნური ინტელექტით გენერირებული ყალბი ამბების წინააღმდეგ საბრძოლველ მნიშვნელოვან ინფრასტრუქტურას, ინფორმაციულ ეკოსისტემებში ინდივიდები კვლავაც თავდაცვის პირველ ხაზს წარმოადგენენ. შესაბამისად, ქვემოთ სწორედ იმ კონკრეტულ პრაქტიკულ ხერხებს განვიხილავთ, რომლებიც ადამიანებს ციფრულ სამყაროში ოპერირებისთვის გამოადგებათ.
AI დეზინფორმაციის აღმოჩენის პრაქტიკული ხერხები
- მანიშნებელი არტეფაქტები - ესენია მანიპულაციის შესამჩნევი კვალი აუდიო, ვიდეო ან ფოტომასალაში. ყურადღება უნდა მიექცეს უჩვეულო განათებას, ჩრდილებს, უჩვეულო ფერებსა და საგნების ფორმებსაც კი, რომლებიც ხშირად არაბუნებრივი მოყვანილობისაა. ვიდეოკონტენტში განსაკუთრებული ყურადღება უნდა მიექცეს სახეებსა და ფონს შორის საზღვრებს, თვალებში ან სათვალეებში ანარეკლებსა და კადრის სხვადასხვა ელემენტში განათების თანმიმდევრულობას.
- აღქმის უცნაურობები - ვლინდება შეუსაბამობებით, რომლებიც განსაკუთრებით Deepfake ვიდეოებს ახლავს თან. ესენია: სახის არაბუნებრივი გამომეტყველება, ტუჩების სინქრონიზაციის შეცდომები, სადაც პირის მოძრაობები ზუსტად არ ემთხვევა ხმას, ასევე თვალების უჩვეულო ხამხამი, თავის არათანმიმდევრული მოძრაობები და ა.შ.
- სემანტიკური შეუსაბამობები - აქ განსაკუთრებული ყურადღება უნდა მიექცეს მასალის შინაარსს, რადგან ხელოვნური ინტელექტით გენერირებულ მასალაში ხშირია ფაქტობრივი წინააღმდეგობები, მოვლენების არაზუსტი თანმიმდევრობით წარმოდგენა დროით ჭრილში, ლოგიკური ხარვეზები და ისეთი მტკიცებები, რომლებიც ზოგჯერ საყოველთაოდ გავრცელებულ ცოდნასაც კი ეწინააღმდეგება. ასევე, ხელოვნური ინტელექტით გენერირებულ ტექსტებში შეიძლება შეგვხვდეს ზედმეტად ხშირად განმეორებადი ფრაზები, ძალიან ზოგადი, დეტალების გარეშე გადმოცემული ინფორმაცია და ისეთი ენობრივი შეცდომები, რომლებიც, როგორც წესი, ადამიანებისთვის ნაკლებად არის დამახასიათებელი.
- ემოციური ტონი და დარწმუნების მიზნით განმეორებადი სიტყვები - კვლევები მიუთითებს, რომ გენერაციული მოდელები ხშირად გამოიყენება ისეთი მანიპულაციური ნარატივების შესაქმნელად, რომლებიც განსაკუთრებულად ეხმიანება იდენტობასა და ინდივიდის ემოციებს. ასევე, საზოგადოების ნაწილში უკვე კარგად გამჯდარ სტერეოტიპებს. ინფორმაცია, რომელიც იწვევს ინტენსიურ ემოციურ რეაქციებს - აღშფოთებას, შიშს, აღელვებას - განსაკუთრებით კარგად შესწავლას საჭიროებს.
კოგნიტური მდგრადობის ტექნიკები
ახალი ინფორმაციის ტექნიკური ანალიზის გარდა, არსებობს ფსიქოლოგიური და ქცევითი სტრატეგიები, რომლებიც ხელოვნური ინტელექტით გენერირებული დეზინფორმაციის წინააღმდეგ ბრძოლაში გვეხმარება.
- პაუზა ახალი სიახლის გაზიარებამდე - შეიძლება ითქვას, ეს ყველაზე მნიშვნელოვანი ინდივიდუალური ძალისხმევაა ყალბი ამბების წინააღმდეგ. კვლევები აჩვენებს, რომ მოულოდნელი ან ემოციური შინაარსის დაუყოვნებლივ გაზიარების ნაცვლად მცირე (დაახლოებით ათწამიანი) პაუზის გაკეთება, რეალურად ამცირებს დეზინფორმაციის ეფექტებს. ამდენად, როგორი ემოციური თუ სკანდალურიც უნდა იყოს ესა თუ ის მასალა, მნიშვნელოვანია მისი მყისიერად გაზიარების იმპულსის დათრგუნვა, რაც, საბოლოო ჯამში, არღვევს დეზინფორმაციის სწრაფი გავრცელების ტენდენციას. სწრაფი გავრცელება კი სწორედ ისაა, რაც ვირუსული დეზინფორმაციის კამპანიებს ეფექტურს ხდის.
- ალტერნატიული წყაროები - ახალი ამბის დაჯერებამდე ან ჩვენი წინასწარი განწყობების დადასტურებამდე, მნიშვნელოვანია, რომ ვეწვიოთ რამდენიმე დამოუკიდებელ წყაროს (ვებგვერდს ან სოციალური ქსელის შესაბამის გვერდებს), ან მივმართოთ ფაქტების გადამმოწმებელ ავტორიტეტულ ორგანიზაციებს. ეს მეთოდი საშუალებას იძლევა, ინფორმაცია რამდენიმე სხვადასხვა წყაროდან მივიღოთ და შესაბამისად, განსხვავებული პერსპექტივებიდან შევხედოთ მას.
- რა ინტერესი აქვს ინფორმაციის წყაროს? - უნდა დაისვას შემდეგი კითხვები: ვისთვის მოაქვს სარგებელი ამ სიახლეს და აქვს, თუ - არა მის გამავრცელებელ წყაროს სანდოობა? ვინ შექმნა ეს მასალა? რა არის მათი მოტივაცია? აქვთ, თუ - არა მათ ექსპერტიზა ან ავტორიტეტი ამ თემაზე? იყვნენ, თუ - არა ისინი სანდო წარსულში?
- კოგნიტური მიკერძოებების გამორიცხვა - ხშირ შემთხვევაში, ჩვენი წინასწარი განწყობები და კონკრეტული თემის მიმართ სუბიექტური დამოკიდებულებები გვაიძულებს, ნაკლებად ვიფიქროთ ამა თუ იმ სიახლის სანდოობაზე და ემოციური მსჯელობით, ასევე ჩვენი სურვილების/რწმენების დადასტურების მიზეზით, ნაკლებად კრიტიკულნი ვიყოთ სავარაუდო მანიპულაციის მიმართ. კვლევები ადასტურებს, რომ ჩვენი სუბიექტური განწყობების კარგად გააზრება და მათ შესახებ მიღებული სიახლეების განსაკუთრებით ფრთხილი ანალიზი მნიშვნელოვნად ამცირებს ინდივიდის შეცდომაში შეყვანის შესაძლებლობას.
- „ვარჯიში“ ციფრულ წიგნიერებაში, როგორც ციფრული უნარების განვითარების უწყეტი პროცესი - წყაროების კრიტიკული ანალიზისა და ხელოვნური ინტელექტის შესაძლებლობების გაგების კომპეტენციების განვითარება რთულ ინფორმაციულ გარემოში უფრო ეფექტურ ნავიგაციას უზრუნველყოფს. საგანმანათლებლო დაწესებულებები და არა მხოლოდ, სულ უფრო ხშირად გვთავაზობენ ფართოდ ხელმისაწვდომ რესურსებს ამ უნარების განვითარებისთვის.
პლატფორმების მიერ მოწოდებული ტექნიკური ხელსაწყოების გამოყენება
- დეზინფორმაციის აღმოჩენის ავტომატური სისტემები - ეს სისტემები იყენებს მანქანურ სწავლებას იმისთვის, რომ ავტომატურ რეჟიმში მონიშნოს მანიპულირებული აუდიო, ვიდეო და ბეჭდური მასალები (მაგალითად, meta-ს პლატფორმებზე კონკრეტულ ვიდეოებზე შეიძლება შეგვხვდეს წარწერა AI info). პლატფორმები სულ უფრო ხშირად მიმართავენ მსგავს ხერხებს, ცდილობენ მონიშნონ საეჭვო ინფორმაცია და თან დაურთონ ფაქტების გადამმოწმებელი ავტორიტეტული ორგანიზაციების განმარტებები. ამდენად, მნიშვნელოვანია, მომხმარებლები კარგად გაეცნონ ამ ფუნქციებს მათ მიერ გამოყენებულ პლატფორმებზე და ყურადღება მიაქციონ შესაბამის გაფრთხილებებს. საწყის ეტაპზე მსგავსი მიდგომა ინდივიდს ყალბი ინფორმაციის შემჩნევაში ეხმარება. თუმცა ისიც გასათვალისწინებელია, რომ ამ გზით აბსოლუტურად ყველაფრის გადამოწმება შეუძლებელია და არსებობს მაღალი ხარისხის დეზინფორმაციული მასალები, რომელთა იდენტიფიცირებაც ავტომატურ სისტემებს ჯერ კიდევ უჭირთ.
- საგანმანათლებლო ორგანიზაციები და ფაქტების გადამოწმების სერვისები - ეს სერვისები მომხმარებლებს ასწავლის, თუ როგორ შეაფასონ ახალი ამბის სანდოობა და სთავაზობს სხვადასხვა ინსტრუმენტს მასალის გადასამოწმებლად. კვლევები აჩვენებს, რომ სანდო შუამავლებთან კონსულტაცია, როგორიცაა ინფორმაციის გადამოწმების ექსპერტიზის მქონე ინსტიტუტები, ამცირებს ინდივიდების შეცდომაში შეყვანის მაჩვენებელს და ხელს უშლის დეზინფორმაციის უნებლიე გავრცელებას.
- მულტიმოდალური გადამოწმება - გულისხმობს ტექსტის, ვიდეოსა და სხვადასხვა კონტექსტური სიგნალის თანადროულ გადამოწმებას. საეჭვო მასალის შეფასებისას, უნდა შემოწმდეს, გადმოსცემს, თუ - არა სხვადასხვა მოდალობა (ტექსტი, ხმა, ვიზუალი) თანმიმდევრულ ამბავს. მაგალითად, ემთხვევა, თუ - არა ტექსტში მოცემული მტკიცებები სურათებში გადმოცემულ ინფორმაციას? ემთხვევა, თუ - არა კონკრეტული ხმები ვიდეოში არსებულ ვიზუალურ ელემენტებს? მსგავსი ჯვარედინი ანალიზის მეთოდი ხშირად ავლენს მანიპულირებულ ინფორმაციას.
შეჯამება
სხვადასხვა აკადემიური კვლევის შედეგები აჩვენებს, რომ ხელოვნური ინტელექტის სწრაფმა განვითარებამ რადიკალურად შეცვალა დეზინფორმაციის ბუნება და მასშტაბი, რის შედეგადაც ყალბი ამბები უფრო დამაჯერებელი, პერსონალიზებული და მასობრივად გავრცელებადი გახდა. დიდი ენობრივი მოდელები, გენერაციული AI და Deepfake ტექნოლოგიები ქმნის ისეთ საინფორმაციო გარემოს, რომელშიც ფაქტისა და სიყალბის ერთმანეთისგან გარჩევა მნიშვნელოვნად გართულებულია. ეს პროცესი აზიანებს როგორც საზოგადოებრივ დონეზე ინფორმაციულ ეკოსისტემასა და ინსტიტუტებისადმი ნდობას, ისე ინდივიდის ფსიქოლოგიურ მდგომარეობასა და ინფორმაციის აღქმის უნარს.
ტექნიკური თუ ინსტიტუციური პასუხების გარდა, შეიძლება ითქვას, ხელოვნური ინტელექტით გენერირებული ყალბი ამბების წინააღმდეგ ბრძოლაში განსაკუთრებული მნიშვნელობა ენიჭებათ ინდივიდებსა და მათზე ორიენტირებულ მიდგომებს, რომლებიც ადამიანებს აქცევს ინფორმაციის პასუხისმგებლიან მომხმარებლებად და არა მხოლოდ პასიურ მიმღებებად. ამ კონტექსტში, ციფრული წიგნიერება შეიძლება იყოს ყველაზე მდგრადი და ეფექტური პასუხი დეზინფორმაციის წინააღმდეგ. იგი მოიცავს არა მხოლოდ ტექნიკურ უნარებს, არამედ კრიტიკული აზროვნების განვითარებას, ინფორმაციის წყაროების შეფასების უნარსა და ხელოვნური ინტელექტის შესაძლებლობებისა თუ შეზღუდვების გააზრებას. ციფრული წიგნიერების მქონე ინდივიდი უკეთ ამოიცნობს მანიპულაციურ ნარატივებს, აფასებს შინაარსის სანდოობას და ნაკლებად ექვემდებარება ემოციურ მანიპულაციებს. ამ ყველაფრის მისაღწევად სფეროს მკვლევრები გამოყოფენ რამდენიმე ძირითად მეთოდს, რომელთა დახმარებითაც ტრადიციული თუ ალტერნატიული მედიის მომხმარებლები უფრო მომზადებულნი შეხვდებიან ხელოვნური ინტელექტით გენერირებულ ყალბ ამბებს. ესენია: ინფორმაციის გაზიარებამდე პაუზის გაკეთება, ალტერნატიული წყაროების გადამოწმება, ინფორმაციის გამავრცელებლის მოტივაციის გაანალიზება და საკუთარი კოგნიტური მიკერძოებების გაცნობიერება. ასევე მნიშვნელოვანია მულტიმოდალური ანალიზის უნარი - ტექსტის, ვიზუალისა და ხმის თანხვედრის შემოწმება - რაც განსაკუთრებით აქტუალურია Deepfake-ების ეპოქაში. ეს მიდგომები ზრდის ე.წ. „კოგნიტურ მდგრადობას“, რაც ინდივიდს საშუალებას აძლევს, უკეთ გაუმკლავდეს მანიპულაციურ ინფორმაციას.
საბოლოოდ, ხელოვნური ინტელექტის ეპოქაში დეზინფორმაციის წინააღმდეგ ბრძოლა მოითხოვს კომპლექსურ, მრავალსექტორულ მიდგომას, რომლის მიხედვითაც, ტექნოლოგიური და ინსტიტუციური პასუხები უნდა შეივსოს ინდივიდის გაძლიერებით. სწორედ ციფრული წიგნიერება და ინდივიდის აქტიური ჩართულობა წარმოადგენს იმ „პირველ ხაზს“, რომელიც განსაზღვრავს, რამდენად მდგრადი იქნება საზოგადოება თანამედროვე საინფორმაციო გამოწვევების მიმართ.
სრული დოკუმენტი, შესაბამისი წყაროებით, ბმულებითა და განმარტებებით, იხ. მიმაგრებულ ფაილში.