Deepfake ಮತ್ತು AI Voice Cloning ವಂಚನೆಗಳು – ಮೋಸಕ್ಕೆ ಒಳಗಾಗಬೇಡಿ!

ಇತ್ತೀಚಿನ ದಿನಗಳಲ್ಲಿ Deepfake ವಿಡಿಯೋಗಳು ಮತ್ತು AI Voice Cloning ತಂತ್ರಜ್ಞಾನ ಬಳಸಿ ನಡೆಯುವ ವಂಚನೆಗಳು ಭಾರೀ ಪ್ರಮಾಣದಲ್ಲಿ ಹೆಚ್ಚಾಗುತ್ತಿವೆ. ಇದು ಕೇವಲ ತಂತ್ರಜ್ಞಾನ ಸಮಸ್ಯೆಯಲ್ಲ – ಸಾಮಾನ್ಯ ಜನರ ಜೀವನ, ಹಣ ಮತ್ತು ಗೌರವಕ್ಕೆ ನೇರ ಅಪಾಯವಾಗಿದೆ.

Deepfake ಎಂದರೆ, ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆ (AI) ಬಳಸಿ ನಿಜ ವ್ಯಕ್ತಿಯ ಮುಖ, ಶಬ್ದ ಅಥವಾ ಚಲನೆಗಳನ್ನು ನಕಲಿ ರೀತಿಯಲ್ಲಿ ಸೃಷ್ಟಿಸುವುದು. ಈ ನಕಲಿ ವಿಡಿಯೋಗಳು ಅಥವಾ ಆಡಿಯೋಗಳು ನಿಜವಾದಂತೆಯೇ ಕಾಣುತ್ತವೆ ಮತ್ತು ಕೇಳಿಸುತ್ತವೆ.

AI ಮೂಲಕ ಕೆಲವೇ ಸೆಕೆಂಡುಗಳ ಶಬ್ದದಿಂದಲೇ, ಯಾವುದೇ ವ್ಯಕ್ತಿಯ ಧ್ವನಿಯನ್ನು ಸಂಪೂರ್ಣವಾಗಿ ನಕಲಿಸಬಹುದು.
ಇದನ್ನು ಬಳಸಿ ವಂಚಕರು:

  • ಕುಟುಂಬದ ಸದಸ್ಯರಂತೆ ಮಾತನಾಡಿ ಹಣ ಕೇಳುತ್ತಾರೆ
  • ಅಧಿಕಾರಿಗಳ ಧ್ವನಿಯಲ್ಲಿ ಬೆದರಿಕೆ ಕರೆ ಮಾಡುತ್ತಾರೆ
  • ಬ್ಯಾಂಕ್ ಅಥವಾ ಕಂಪನಿ ಹೆಸರಿನಲ್ಲಿ ಮೋಸ ಮಾಡುತ್ತಾರೆ

ಹೇಗೆ ನಡೆಯುತ್ತಿದೆ ಈ ಮೋಸ?

  • “ನಾನು ಅಪಘಾತದಲ್ಲಿದ್ದೇನೆ, ತಕ್ಷಣ ಹಣ ಕಳುಹಿಸಿ” ಎನ್ನುವ ಕರೆ
  • ನಕಲಿ ವಿಡಿಯೋ ಮೂಲಕ ಸೆಲೆಬ್ರಿಟಿ ಅಥವಾ ಅಧಿಕಾರಿಗಳ ಹೇಳಿಕೆ
  • ವಾಟ್ಸಾಪ್/ಸೋಶಿಯಲ್ ಮೀಡಿಯಾದಲ್ಲಿ ವೈರಲ್ ಆಗುವ ನಕಲಿ ಸಂದೇಶಗಳು

ಮೋಸಕ್ಕೆ ಒಳಗಾಗಬಾರದೆಂದರೆ ಏನು ಮಾಡಬೇಕು?

ಅಚಾನಕ್ ಬಂದ ಕರೆಗಳಿಗೆ ತಕ್ಷಣ ನಂಬಬೇಡಿ
ಹಣ ಕೇಳಿದರೆ, ಮತ್ತೊಂದು ಮಾರ್ಗದಲ್ಲಿ ಪರಿಶೀಲನೆ ಮಾಡಿ
ಅಸಾಮಾನ್ಯ ಧ್ವನಿ ಅಥವಾ ತುರ್ತು ಒತ್ತಡ ಕಂಡರೆ ಎಚ್ಚರಿಕೆಯಿಂದಿರಿ
ನಕಲಿ ವಿಡಿಯೋ/ಆಡಿಯೋಗಳನ್ನು ಫಾರ್ವರ್ಡ್ ಮಾಡಬೇಡಿ
ಅನುಮಾನಾಸ್ಪದ ಪ್ರಕರಣಗಳನ್ನು ಸೈಬರ್ ಕ್ರೈಂಗೆ ತಕ್ಷಣ ವರದಿ ಮಾಡಿ

ಸಹಾಯಕ್ಕೆ:

Cyber Crime Helpline – 1930
ಅಥವಾ www.cybercrime.gov.in

News Editor

Learn More →

Leave a Reply

Your email address will not be published. Required fields are marked *