तुमच्या आवाजाचा 'असा' होऊ शकतो गैरवापर, AI मुळे फसवणुकीचे प्रकार वाढले

रविवार, 24 मार्च 2024 (15:39 IST)
तंत्रज्ञान जगतामध्ये वेगानं बदल होत चालले आहेत. हे बदल सुरू असताना काय असा सल्ला दिला जातो की, 'प्रत्येक गोष्ट आणि प्रत्येक व्यक्तीवर विश्वास ठेवू नये.'सायबर सुरक्षेशी संबंधित तज्ज्ञांनी आर्टिफिशियल इंटेलिजन्सच्या (AI) माध्यमातून तरुण आणि ज्येष्ठ नागरिकांबरोबर होणाऱ्या फ्रॉडच्या बातम्यांच्या वातावरणात दिशानिर्देश जारी केले आहेत.एआयच्या माध्यमातून कोणत्याही व्यक्तीचा आवाज काढून त्याच्याबरोबर मोठे आर्थिक फ्रॉड केले जात आहेत. या फसवणुकीमध्ये कोणत्याही प्रकारचे पुरावे मागे शिल्लक राहत नाहीत.
त्यामुळं अशा प्रकरणांची चौकशी होणंही कठीण असतं. लुटलेली रक्कम परत मिळवणं तर लांबच राहिलं. पण आता लोकांना अनोळखी क्रमांक किंवा अनोळखी लोकांचे कॉल रिसिव्ह न करण्याचा सल्ला दिला जात आहे.
 
विचार बदलणे गरजेचे
सायबर सुरक्षा क्षेत्रातील तज्ज्ञांच्या मते, या आव्हानांचा सामना करण्यासाठी विचार बदलण्याचीही गरज आहे.
"नव्या जगात तुम्ही प्रत्येक व्यक्ती किंवा प्रत्येक गोष्टीवर विश्वास ठेवू शकत नाही. तुम्हाला प्रत्येक गोष्टीवर संशय घेणारं बनावं लागेल. म्हणजेच सगळ्याच गोष्टी आणि सगळ्याच लोकांवर विश्वास ठेवायचा नाही. खरं म्हणजे आपल्याला विचारच बदलावे लागतील," असं क्लाउड एसईकेचे मुख्य कार्यकारी अधिकारी राहुल शशी यांनी बीबीसी हिंदीशी बोलताना सांगितलं.
 
मध्य प्रदेशात एक आश्चर्यकारक प्रकरण समोर आलं आहे. त्यात एका व्यक्तीला कॉल करून त्याची आर्थिक फसवणूक करण्यात आली.
 
फोन करणाऱ्यानं पीडित व्यक्तीला (फसवणूक झालेला) म्हटलं की, त्याच्या किशोरवयीन मुलानं बलात्कार केला असून ते प्रकरण मिटवण्यासाठी त्याला 50 हजार रुपये द्यावे लागतील.
फोन करणाऱ्या व्यक्तीनं पीडित व्यक्तीला त्याच्या रडणाऱ्या मुलाचा आवाजही ऐकवला.
त्यानंतर मुलाच्या वडिलांनी लगेचच 50 हजार रुपये ट्रान्सफर केले. नंतर त्यांना प्रत्यक्षात तसं काहीही घडलं नसल्याचं समजलं. म्हणजे तो बनावट कॉल होता.
ऑनलाईन फ्रॉडच्या काही प्रकरणांत फ्रॉड करणारे एखाद्याला फोन करून त्यांच्या मित्राच्या आवाजात बोलतात. एका अनोळखी देशात अडकलो असून तातडीनं पैशाची गरज असल्याचं ते सांगतात. तशाच प्रकारचं मध्य प्रदेशातलं हे प्रकरण होतं.
 
सायबर सुरक्षा
सेक्योर आयटी कन्सल्टन्सी सर्व्हिसेसमधील सायबर सुरक्षेचे तज्ज्ञ शशीधन सीएन म्हणाले की, "माझ्या एका मित्राबरोबर असं घडलं होतं. त्याला सोशल मीडिया प्लॅटफॉर्मवर मित्राच्या आवाजात मदतीची मागणी करणारा मेसेज मिळाला. त्यात त्यानं त्याचं सगळं सामान हरवल्याचं म्हटलं होतं. त्याला लगेचच, तत्काळ आर्थिक मदतीची गरज असल्याचंही त्यानं म्हटलं होतं.
 
"भारतातील या मित्राने जेव्हा त्या मित्राला फोन करून चौकशी केली तेव्हा तो पूर्णपणे ठिक असल्याचं समजल्यानं त्याला आश्चर्य वाटलं. त्यानं मित्राला सोशल मीडियावर त्याच्या अकाऊंटवर असा मेसेज आल्याचं सांगितलं तेव्हा स्वतःचाच बनावट आवाज ऐकून मित्रालाही आश्चर्य वाटलं. तो आवाज अगदी त्याच्या सारखाच होता."
अशा प्रकारचे फ्रॉड अशिक्षित लोकांबरोबरच सुशिक्षित लोकांबरोबरही होत आहेत.
 
"काही दिवसांपूर्वी मला एक फोन आला होता. हा कॉल टेलिकॉम विभागातून असल्याचं मला सांगण्यात आलं. रात्रीपर्यंत केवायसी डिटेल दिले नाही तर माझ्या नावावरचे सगळे नंबर बंद होतील असं मला सांगण्यात आलं. नंतर मला म्हटलं की, पुढं जाण्यासाठी एक नंबर दाबा... असंच कोणीही मूर्ख बनू शकतं," असं शशीधर उदाहरण देताना म्हणाले.
 
"मला माहिती होतं की, हे एक फिशिंगचं प्रकरण आहे. त्यात तुमच्याकडून केवायसी डिटेल घेतले जातात. त्यानंतर फ्रॉड केला जातो. मी हा नंबर एका अॅपवर चेक केला. त्या अॅपवर नंबरबाबत माहिती मिळते. मला हा नंबर मध्य प्रदेशचा असल्याचा समजलं. मी नंबर ब्लॉक केला आणि त्याला फ्रॉड असल्याचं रिपोर्ट केलं. त्यामुळं या नंबरनं कुणाला कॉल गेला तर त्याला हा फ्रॉड कॉल असल्याचं समजेल."
 
"अशा प्रकरणांमध्ये फोन उचलणाऱ्या किंवा मेसेज मिळणाऱ्या व्यक्तीनं मेसेज किंवा फोनवर डोळे बंद करून विश्वास ठेवता कामा नये," असं त्यांनी म्हटलं.
 
AI द्वारे आवाज तयार करणं किती सोपं?
शशीधर म्हणाले की, "एखाद्याच्या आवाजाचं सॅम्पल घेऊन त्याचा आवाज आणि बोलण्याच्या पद्धतीसारखा डीप फेक व्हीडिओ बनवण्याचे अनेक टूल इंटरनेटवर उपलब्ध आहेत. या टूल्सचा वापर करून तुम्हाला धक्का बसेल."
 
"मी तुम्हाला कॉल करून रेकॉर्ड करू शकतो. त्यामुळं तुम्हाला खोटा कॉल करण्यासाठी पुरेसा डेटा उपलब्ध होईल. काही अल्गोरिदमला सीड डेटाची आवश्यकता असते. मी एखाद्याला व्हीडिओ किंवा नॉर्मल कॉल करून सीड डेटा गोळा करू शकतो. ते फार सोपं आहे. समोरून कॉल आल्यास, कोणीही एखाद्या अनोळखी व्यक्तीबरोबरही बोलतं. त्या चर्चेदरम्यान फ्रॉड करण्यासाठी त्याचा आवाज रेकॉर्ड केला जाऊ शकतो," असं शशीधर यांनी सांगितलं.
 
तर सायबर लॉ तज्ज्ञ नावी विजयशंकर यांच्या मते, "अशा बहुतांश दगाबाजांसाठी सोशल मीडिया हा खजिना मिळाल्यासारखा असतो. तिथून ते आवाजाबरोबरच व्हिडिओ आणि फोटोही मिळवू शकतात. त्यांचं सपूर्ण लक्ष मुलांच्या सोशल मीडिया अकाऊंटवर असतं. तिथून त्यांना जास्तीत जास्त माहिती मिळू शकते."
 
सध्या डीप फेक तयार करण्यासाठीचं तंत्रज्ञान सहज उपलब्ध आहे. पण त्याचा सामना करण्यासाठीचं तंत्रज्ञान उपलब्ध नाही.
 
"हा एकप्रकारे जागरुकतेचा मुद्दा आहे. लोक घाबरत प्रतिक्रिया देतात. पण यावर मोठ्या प्रमाणावर जागरुकता पसरवून तोडगा शोधला जाऊ शकतो. दुसरा पर्याय नाही," असं विजयशंकर म्हणाले.
 
विजयशंकर एक पाऊल पुढं जाऊन असा सल्लाही देतात की, बँकिंग सेक्टरनं तंत्रज्ञानाच्या मदतीनं पीडितांची माहिती अधिक सुरक्षित ठेवायला हवी.
 
"अशा फ्रॉडच्या कचाट्यात अडकल्यानंतर व्यक्ती ऑनलाईन पेमेंट करत असतात. हे अधिकृत पेमेंट असतं, त्यामुळं खातेधारकाकडून नेहमी केल्या जाणाऱ्या व्यवहारांपेक्षा रक्कम जास्त मोठी नसेल तर बँक याकडं फारसं गांभीर्यानं लक्ष देत नाही. बँकेत याबाबत तक्रार करताना ते ज्या बँकेत पैसे जमा करण्यात आले आहेत, त्या बँकेला संपर्क करू शकतात. आपल्या बँकिंग सिस्टीममध्ये एक त्रुटी आहे. ती म्हणजे पीडित व्यक्तीची बँक आरोपीचं खातं असलेल्या बँकेशी संपर्क साधत नाही. ही ऑटोमॅटिक यंत्रणा असायला हवी," असंही ते म्हणाले.
 
Published By- Priya Dixit
 
 

वेबदुनिया वर वाचा

संबंधित माहिती