
ಇತ್ತೀಚಿನ ದಿನಗಳಲ್ಲಿ Deepfake ವಿಡಿಯೋಗಳು ಮತ್ತು AI Voice Cloning ತಂತ್ರಜ್ಞಾನ ಬಳಸಿ ನಡೆಯುವ ವಂಚನೆಗಳು ಭಾರೀ ಪ್ರಮಾಣದಲ್ಲಿ ಹೆಚ್ಚಾಗುತ್ತಿವೆ. ಇದು ಕೇವಲ ತಂತ್ರಜ್ಞಾನ ಸಮಸ್ಯೆಯಲ್ಲ – ಸಾಮಾನ್ಯ ಜನರ ಜೀವನ, ಹಣ ಮತ್ತು ಗೌರವಕ್ಕೆ ನೇರ ಅಪಾಯವಾಗಿದೆ.
Deepfake ಎಂದರೆ, ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆ (AI) ಬಳಸಿ ನಿಜ ವ್ಯಕ್ತಿಯ ಮುಖ, ಶಬ್ದ ಅಥವಾ ಚಲನೆಗಳನ್ನು ನಕಲಿ ರೀತಿಯಲ್ಲಿ ಸೃಷ್ಟಿಸುವುದು. ಈ ನಕಲಿ ವಿಡಿಯೋಗಳು ಅಥವಾ ಆಡಿಯೋಗಳು ನಿಜವಾದಂತೆಯೇ ಕಾಣುತ್ತವೆ ಮತ್ತು ಕೇಳಿಸುತ್ತವೆ.
AI ಮೂಲಕ ಕೆಲವೇ ಸೆಕೆಂಡುಗಳ ಶಬ್ದದಿಂದಲೇ, ಯಾವುದೇ ವ್ಯಕ್ತಿಯ ಧ್ವನಿಯನ್ನು ಸಂಪೂರ್ಣವಾಗಿ ನಕಲಿಸಬಹುದು.
ಇದನ್ನು ಬಳಸಿ ವಂಚಕರು:
- ಕುಟುಂಬದ ಸದಸ್ಯರಂತೆ ಮಾತನಾಡಿ ಹಣ ಕೇಳುತ್ತಾರೆ
- ಅಧಿಕಾರಿಗಳ ಧ್ವನಿಯಲ್ಲಿ ಬೆದರಿಕೆ ಕರೆ ಮಾಡುತ್ತಾರೆ
- ಬ್ಯಾಂಕ್ ಅಥವಾ ಕಂಪನಿ ಹೆಸರಿನಲ್ಲಿ ಮೋಸ ಮಾಡುತ್ತಾರೆ
ಹೇಗೆ ನಡೆಯುತ್ತಿದೆ ಈ ಮೋಸ?
- “ನಾನು ಅಪಘಾತದಲ್ಲಿದ್ದೇನೆ, ತಕ್ಷಣ ಹಣ ಕಳುಹಿಸಿ” ಎನ್ನುವ ಕರೆ
- ನಕಲಿ ವಿಡಿಯೋ ಮೂಲಕ ಸೆಲೆಬ್ರಿಟಿ ಅಥವಾ ಅಧಿಕಾರಿಗಳ ಹೇಳಿಕೆ
- ವಾಟ್ಸಾಪ್/ಸೋಶಿಯಲ್ ಮೀಡಿಯಾದಲ್ಲಿ ವೈರಲ್ ಆಗುವ ನಕಲಿ ಸಂದೇಶಗಳು
ಮೋಸಕ್ಕೆ ಒಳಗಾಗಬಾರದೆಂದರೆ ಏನು ಮಾಡಬೇಕು?
ಅಚಾನಕ್ ಬಂದ ಕರೆಗಳಿಗೆ ತಕ್ಷಣ ನಂಬಬೇಡಿ
ಹಣ ಕೇಳಿದರೆ, ಮತ್ತೊಂದು ಮಾರ್ಗದಲ್ಲಿ ಪರಿಶೀಲನೆ ಮಾಡಿ
ಅಸಾಮಾನ್ಯ ಧ್ವನಿ ಅಥವಾ ತುರ್ತು ಒತ್ತಡ ಕಂಡರೆ ಎಚ್ಚರಿಕೆಯಿಂದಿರಿ
ನಕಲಿ ವಿಡಿಯೋ/ಆಡಿಯೋಗಳನ್ನು ಫಾರ್ವರ್ಡ್ ಮಾಡಬೇಡಿ
ಅನುಮಾನಾಸ್ಪದ ಪ್ರಕರಣಗಳನ್ನು ಸೈಬರ್ ಕ್ರೈಂಗೆ ತಕ್ಷಣ ವರದಿ ಮಾಡಿ
ಸಹಾಯಕ್ಕೆ:
Cyber Crime Helpline – 1930
ಅಥವಾ www.cybercrime.gov.in


