بچوں کاآن لائن تحفظ:مصنوعی ذہانت کےبڑھتےہوئےخطرات اورعالمی اقدامات

ٹیکنالوجی کے ذریعے بچوں کے جنسی استحصال کے کیسز میں غیر معمولی اضافہ ہوا ہے

Editor News

جنیوا(ویب ڈیسک): اقوامِ متحدہ کے ماہرین نے خبردار کیا ہے کہ مصنوعی ذہانت اور ٹیکنالوجی کے غلط استعمال سے بچوں، خصوصاً لڑکیوں کو آن لائن ہراساں کرنے اور جسمانی نقصان پہنچانے کے واقعات میں تشویشناک اضافہ ہوا ہے۔

رپورٹ میں ان طریقوں کی نشاندہی کی گئی ہے جن کے ذریعے بچوں کو نشانہ بنایا جا رہا ہے:

ڈیپ فیکس (Deepfakes): بچوں کی جعلی اور غیر اخلاقی تصاویر تیار کرنے کے لیے AI کا استعمال کیا جا رہا ہے۔

گرومنگ (Grooming): مجرم AI کے ذریعے بچوں کے رویوں اور دلچسپیوں کا تجزیہ کر کے انہیں ورغلانے کی حکمت عملی تیار کرتے ہیں۔

سائبر بلینگ اور استحصال: ٹیکنالوجی کے ذریعے بچوں کے جنسی استحصال کے کیسز میں غیر معمولی اضافہ ہوا ہے؛ امریکہ میں ایسے کیسز 2023 میں 4,700 سے بڑھ کر 2024 میں 67,000 سے تجاوز کر گئے ہیں۔

عالمی ردِعمل اور آسٹریلیا کی پہل
بچوں کو ان خطرات سے بچانے کے لیے مختلف ممالک سخت اقدامات کر رہے ہیں:

آسٹریلیا: 2025 کے آخر میں آسٹریلیا 16 سال سے کم عمر بچوں کے لیے سوشل میڈیا اکاؤنٹس پر پابندی لگانے والا پہلا ملک بن گیا۔

ملائیشیا، برطانیہ، فرانس اور کینیڈا بھی آسٹریلیا کی پیروی کرتے ہوئے اسی طرح کی پابندیاں اور قوانین متعارف کرانے کی تیاری کر رہے ہیں۔

اقوامِ متحدہ کا مشترکہ اعلامیہ (19 جنوری 2026)
اقوامِ متحدہ کے اداروں نے ایک مشترکہ بیان میں معاشرے کی اجتماعی نااہلی اور AI کے حوالے سے عدم واقفیت پر تشویش کا اظہار کیا ہے:

بچوں، والدین اور اساتذہ میں AI کے بارے میں شعور (AI Literacy) کی شدید کمی پائی جاتی ہے۔

اعلامیہ کے مطابق، اکثر AI ٹولز بچوں کی فلاح و بہبود کو مدنظر رکھ کر ڈیزائن نہیں کیے گئے۔

ITU نے بچوں کے تحفظ کے لیے چار حصوں پر مشتمل گائیڈ لائنز جاری کی ہیں جو والدین، اساتذہ، ریگولیٹرز اور نجی شعبے (صنعت) کے لیے ہیں۔

ITU کے ڈائریکٹر کوسماس زوازاوا کا کہنا ہے کہ نجی شعبہ ایک شراکت دار ہے اور اسے جدت کے ساتھ ساتھ ذمہ دارانہ تعیناتی کو یقینی بنانا چاہیے۔ ان کا مقصد یہ ہے کہ ٹیکنالوجی کو تباہی کے بجائے انسانیت کی بہتری کے لیے استعمال کیا جائے۔

Share This Article
Leave a Comment

Leave a Reply

Your email address will not be published. Required fields are marked *