مع تطور تقنيات الذكاء الاصطناعي بمعدلات متسارعة، تستمر طرق إدارة الشركات والمنصات في إثارة المخاوف الأخلاقية والقانونية.
في كندا، ينظر الكثيرون إلى القوانين المقترحة لتنظيم منتجات الذكاء الاصطناعي على أنها هجمات على حرية التعبير وتجاوز لسيطرة الحكومة على شركات التكنولوجيا. وقد جاءت هذه ردود الفعل العنيفة من دعاة حرية التعبير والشخصيات اليمينية وقادة الفكر الليبراليين.
ومع ذلك، يجب على هؤلاء المنتقدين الانتباه إلى حالة مروعة من كوريا الجنوبية تقدم دروسًا مهمة حول مخاطر تقنيات الذكاء الاصطناعي التي تواجه الجمهور والحاجة الماسة لحماية بيانات المستخدم.
في أواخر عام 2020، أصبح إيرودا (أو "لي لودا")، روبوت الدردشة بالذكاء الاصطناعي، ضجة كبيرة في كوريا الجنوبية. روبوتات الدردشة بالذكاء الاصطناعي هي برامج كمبيوتر تحاكي المحادثة مع البشر. في هذه الحالة، تم تصميم روبوت المحادثة على هيئة طالبة جامعية تبلغ من العمر 21 عامًا تتمتع بشخصية مرحة. تم تسويق إيرودا على أنها "صديقة الذكاء الاصطناعي" المثيرة، وقد اجتذبت أكثر من 750 ألف مستخدم في أقل من شهر.
ولكن في غضون أسابيع، أصبحت إيرودا دراسة حالة أخلاقية وحافزًا لمعالجة نقص حوكمة البيانات في كوريا الجنوبية. سرعان ما بدأت في قول أشياء مقلقة والتعبير عن آراء بغيضة. وقد تسارع الموقف وتفاقم بسبب ثقافة التحيز والتحرش الجنسي المتنامية عبر الإنترنت.
لقد طورت شركة Scatter Lab، وهي شركة ناشئة في مجال التكنولوجيا أنشأت Iruda، تطبيقات شهيرة تحلل المشاعر في الرسائل النصية وتقدم نصائح مواعدة. ثم استخدمت الشركة البيانات من هذه التطبيقات لتدريب قدرات Iruda في المحادثات الحميمة. لكنها فشلت في الكشف للمستخدمين بشكل كامل عن استخدام رسائلهم الحميمة لتدريب روبوت المحادثة.
بدأت المشاكل عندما لاحظ المستخدمون أن Iruda يكرر محادثات خاصة حرفيًا من تطبيقات نصائح المواعدة الخاصة بالشركة. تضمنت هذه الاستجابات أسماء حقيقية مشبوهة ومعلومات بطاقة ائتمان وعناوين منزلية، مما أدى إلى إجراء تحقيق.
كما بدأ روبوت المحادثة في التعبير عن آراء تمييزية وكراهية. وجدت التحقيقات التي أجرتها وسائل الإعلام أن هذا حدث بعد أن "دربه" بعض المستخدمين عمدًا بلغة سامة. حتى أن بعض المستخدمين أنشأوا أدلة مستخدم حول كيفية جعل Iruda "عبدًا جنسيًا" على منتديات الرجال الشهيرة على الإنترنت. ونتيجة لذلك، بدأ Iruda في الرد على مطالبات المستخدمين بخطاب كراهية جنسي ومثلي الجنس ومثير للجدال.
وقد أثار هذا مخاوف جدية بشأن كيفية عمل شركات الذكاء الاصطناعي والتكنولوجيا. كما أثار حادث إيرودا مخاوف تتجاوز السياسة والقانون لشركات الذكاء الاصطناعي والتكنولوجيا. وما حدث مع إيرودا يحتاج إلى فحص في سياق أوسع من التحرش الجنسي عبر الإنترنت في كوريا الجنوبية.
نمط من التحرش الرقمي
وثقت الباحثات النسويات في كوريا الجنوبية كيف أصبحت المنصات الرقمية ساحات معارك للصراعات القائمة على النوع الاجتماعي، مع حملات منسقة تستهدف النساء اللاتي يتحدثن عن القضايا النسوية. تعمل وسائل التواصل الاجتماعي على تضخيم هذه الديناميكيات، مما يخلق ما تسميه الباحثة الكورية الأمريكية جيون كيم "كراهية النساء الشبكية".
توفر كوريا الجنوبية، موطن حركة 4B النسوية الراديكالية (التي تمثل أربعة أنواع من الرفض ضد الرجال: لا مواعدة، أو زواج، أو ممارسة الجنس، أو أطفال)، مثالاً مبكرًا للمحادثات المكثفة القائمة على النوع الاجتماعي والتي تُرى عادةً عبر الإنترنت في جميع أنحاء العالم. وكما تشير الصحفية هاوون جونج، فإن الفساد والإساءة التي كشف عنها إيرودا نابعة من التوترات الاجتماعية القائمة والأطر القانونية التي رفضت معالجة كراهية النساء عبر الإنترنت. كتب يونج على نطاق واسع عن النضال المستمر منذ عقود لملاحقة الكاميرات الخفية والإباحية الانتقامية.
ما وراء الخصوصية: التكلفة البشرية
بالطبع، كانت إيرودا مجرد حادثة واحدة. فقد شهد العالم العديد من الحالات الأخرى التي توضح كيف يمكن للتطبيقات التي تبدو غير ضارة مثل روبوتات الدردشة التي تعمل بالذكاء الاصطناعي أن تصبح مركبات للتحرش والإساءة دون إشراف مناسب.
ومن بين هذه الحالات برنامج Tay.ai التابع لشركة Microsoft في عام 2016، والذي تم التلاعب به من قبل المستخدمين لنشر تغريدات معادية للسامية وكارهة للنساء. ومؤخرا، تم ربط برنامج دردشة مخصص على Character.AI بانتحار مراهق.
إن روبوتات الدردشة ــ التي تظهر كشخصيات محببة تشعر بأنها بشرية بشكل متزايد مع التقدم التكنولوجي السريع ــ مجهزة بشكل فريد لاستخراج معلومات شخصية عميقة من مستخدميها.
تجسد شخصيات الذكاء الاصطناعي الجذابة والودية هذه ما وصفه علماء التكنولوجيا نيدا أتاناسوسكي وكاليندي فورا بمنطق "الإنسانية البديلة" ــ حيث تم تصميم أنظمة الذكاء الاصطناعي لتحل محل التفاعل البشري ولكنها تنتهي إلى تضخيم التفاوتات الاجتماعية القائمة.
أخلاقيات الذكاء الاصطناعي
في كوريا الجنوبية، أثار إغلاق إيرودا محادثة وطنية حول أخلاقيات الذكاء الاصطناعي وحقوق البيانات. وقد استجابت الحكومة بإنشاء إرشادات جديدة للذكاء الاصطناعي وتغريم شركة Scatter Lab بمبلغ 103 مليون وون (110 ألف دولار كندي).
ومع ذلك، لاحظ الباحثان القانونيان الكوريان تشيا يون جونج وكيون كيونج جو أن هذه التدابير ركزت في المقام الأول على التنظيم الذاتي داخل صناعة التكنولوجيا بدلاً من معالجة القضايا البنيوية الأعمق. ولم تتطرق إلى كيف أصبح Iruda آلية ينشر من خلالها المستخدمون الذكور المفترسون معتقدات معادية للنساء وغضبًا قائمًا على النوع الاجتماعي من خلال تقنية التعلم العميق.
في نهاية المطاف، فإن النظر إلى تنظيم الذكاء الاصطناعي باعتباره قضية مؤسسية ليس كافيًا ببساطة. إن الطريقة التي تستخرج بها برامج الدردشة هذه البيانات الخاصة وتبني علاقات مع المستخدمين من البشر تعني أن وجهات النظر النسوية والمجتمعية ضرورية لمحاسبة شركات التكنولوجيا.
منذ هذه الحادثة، تعمل شركة Scatter Lab مع الباحثين لإثبات فوائد برامج الدردشة.
كندا بحاجة إلى سياسة قوية للذكاء الاصطناعي
في كندا، لا يزال قانون الذكاء الاصطناعي والبيانات المقترح وقانون الأضرار عبر الإنترنت قيد التشكيل، ولا تزال حدود ما يشكل نظام ذكاء اصطناعي "عالي التأثير" غير محددة.
إن التحدي الذي يواجه صناع السياسات الكنديين هو إنشاء أطر تحمي الابتكار مع منع إساءة الاستخدام النظامية من قبل المطورين والمستخدمين الضارين. وهذا يعني وضع إرشادات واضحة حول موافقة البيانات، وتنفيذ أنظمة لمنع إساءة الاستخدام، وإنشاء تدابير مساءلة ذات مغزى.
ومع تزايد دمج الذكاء الاصطناعي في حياتنا اليومية، ستصبح هذه الاعتبارات أكثر أهمية. وتُظهِر قضية إيرودا أنه عندما يتعلق الأمر بتنظيم الذكاء الاصطناعي، نحتاج إلى التفكير فيما هو أبعد من المواصفات الفنية والنظر في الآثار الإنسانية الحقيقية لهذه التقنيات.
============================
قالت شركة واتساب إن الصحفيين وأعضاء المجتمع المدني كانوا أهدافًا لبرامج التجسس الإسرائيلية
قال تطبيق المراسلة إنه لديه "ثقة عالية" في أن بعض المستخدمين كانوا مستهدفين و"ربما تعرضوا للخطر" بواسطة برامج التجسس Paragon Solutions
زعمت الشركة اليوم أن ما يقرب من 100 صحفي وأعضاء آخرين في المجتمع المدني يستخدمون WhatsApp، تطبيق المراسلة الشهير المملوك لشركة ####، كانوا مستهدفين ببرامج التجسس المملوكة لشركة Paragon Solutions، وهي شركة إسرائيلية تصنع برامج القرصنة.
تم تنبيه الصحفيين وأعضاء المجتمع المدني الآخرين إلى خرق محتمل لأجهزتهم، حيث أخبرت WhatsApp صحيفة الغارديان أنها "على ثقة عالية" في أن المستخدمين المعنيين كانوا مستهدفين و"ربما تعرضوا للخطر".
قال الخبراء إن الاستهداف كان هجومًا "بدون نقرة"، مما يعني أن الأهداف لم يكن عليها النقر على أي روابط ضارة للإصابة.
رفض WhatsApp الكشف عن مكان تواجد الصحفيين وأعضاء المجتمع المدني، بما في ذلك ما إذا كانوا يقيمون في الولايات المتحدة.
لدى Paragon مكتب في الولايات المتحدة في شانتيلي بولاية فرجينيا. واجهت الشركة مؤخرًا تدقيقًا بعد أن ذكرت مجلة Wired في أكتوبر أنها أبرمت عقدًا بقيمة 2 مليون دولار مع قسم تحقيقات الأمن الداخلي التابع لإدارة الهجرة والجمارك الأمريكية.
وبحسب ما ورد أصدر القسم أمرًا بوقف العمل في العقد للتحقق مما إذا كان يتوافق مع الأمر التنفيذي لإدارة بايدن الذي قيد استخدام برامج التجسس من قبل الحكومة الفيدرالية.
قالت WhatsApp إنها أرسلت إلى Paragon خطاب "وقف وكف" وأنها تستكشف خياراتها القانونية. قالت WhatsApp إن الهجمات المزعومة تم تعطيلها في ديسمبر وأنه لم يكن من الواضح إلى متى قد تكون الأهداف تحت التهديد.
"لقد عطل WhatsApp حملة برامج تجسس من قبل Paragon استهدفت عددًا من المستخدمين بما في ذلك الصحفيين وأعضاء المجتمع المدني. لقد تواصلنا مباشرة مع الأشخاص الذين نعتقد أنهم تأثروا. هذا هو أحدث مثال على سبب وجوب محاسبة شركات برامج التجسس على أفعالها غير القانونية. ستواصل WhatsApp حماية قدرة الأشخاص على التواصل بشكل خاص "، قال متحدث باسم الشركة.
تواصلت صحيفة الغارديان مع شركة Paragon Solutions للحصول على تعليق، لكن الشركة لم تستجب على الفور.
يُعرف برنامج التجسس الخاص بشركة Paragon باسم Graphite ولديه قدرات مماثلة لبرنامج التجسس Pegasus من NSO Group. بمجرد إصابة الهاتف ببرنامج Graphite، يتمتع مشغل برنامج التجسس بالوصول الكامل عبر الهاتف، بما في ذلك القدرة على قراءة الرسائل المرسلة عبر تطبيقات مشفرة مثل WhatsApp وSignal.
قالت شركة WhatsApp إنها تعتقد أن ما يسمى بالناقل، أو الوسيلة التي تم بها توصيل العدوى للمستخدمين، كانت من خلال ملف pdf ضار تم إرساله إلى الأفراد الذين تمت إضافتهم إلى محادثات المجموعة. وقالت شركة WhatsApp إنها تستطيع أن تقول "بثقة" أن Paragon مرتبط بهذا الاستهداف.
إن ثورة الذكاء الاصطناعي جارية على قدم وساق وتبرز شركتان - DeepSeek وNvidia - من بين الشركات المتنافسة على قيادتها. خارج العالم المالي، قد تبدو القصة بعيدة - لكنها في الواقع لها عواقب على الجميع. يتلخص الأمر في سبب اهتمام المستثمرين بالذكاء الاصطناعي، وكيف يمكن أن تؤثر هذه المنافسة على التكنولوجيا التي نستخدمها يوميًا.
إن التطورات في الاستثمار في الذكاء الاصطناعي ستشكل قدرات الجيل القادم من التطبيقات والمساعدين الأذكياء وتكنولوجيا القيادة الذاتية وممارسات الأعمال.
DeepSeek، اللاعب الجديد على الساحة، هي شركة صينية كانت تحدث موجات هائلة في تطوير الذكاء الاصطناعي. يمكن لتكنولوجيتها القوية أن تغير أشياء مثل الرعاية الصحية والتمويل - وحتى الطريقة التي نتفاعل بها مع الإنترنت. يشعر المستثمرون بالإثارة لأنهم يرون DeepSeek كقائد محتمل في تشكيل الجيل القادم من أدوات الذكاء الاصطناعي.
في غضون ذلك، كانت شركة إنفيديا عملاقة منذ فترة طويلة في مجال أجهزة الذكاء الاصطناعي، حيث تنتج وحدات معالجة الرسومات (GPUs، أو الرقائق) التي تعمل على تشغيل العديد من تطبيقات الذكاء الاصطناعي. ومع ذلك، فإن صعود شركة ديب سيك جعل بعض المستثمرين يعيدون النظر في رهاناتهم، مما أدى إلى بيع أسهم إنفيديا، ومحو ما يقرب من 300 مليار دولار أمريكي (242 مليار جنيه إسترليني) من قيمة الشركة.
لماذا يهم هذا الأمر؟ ببساطة، لا يتعلق سباق الذكاء الاصطناعي بأرباح الشركات فقط. التكنولوجيا التي طورتها شركات مثل ديب سيك وإنفيديا هي التي تعمل على تشغيل المساعدين الصوتيين وأنظمة التوصية على منصات البث وبرامج السيارات ذاتية القيادة وحتى الاختراقات الطبية. ومع تدفق الاستثمار إلى الذكاء الاصطناعي، فهذا يعني أن الابتكار يمكن أن يصبح أكثر تقدمًا وسهولة في الوصول إليه - أسرع بكثير مما توقعنا سابقًا.
عندما يسمع المستثمرون عن شركة جديدة مثل ديب سيك تحقق تقدمًا كبيرًا، فإنهم غالبًا ما يتفاعلون بتحويل استثماراتهم. هذا ما حدث مع إنفيديا. باع بعض المستثمرين أسهمهم، خوفًا من أن تسلب ديب سيك بعض هيمنة إنفيديا في مجال الذكاء الاصطناعي. هذا لا يعني بالضرورة أن الشركة تواجه صعوبات، بل يعني فقط أن الأسواق تتحرك على أساس التوقعات، وليس فقط النجاح الحالي.
إن المضاربة ــ حيث يقبل المستثمرون حالة عدم اليقين والمخاطر العالية في مقابل عوائد كبيرة محتملة ــ تلعب دورا رئيسيا في هذه التحولات. فالمستثمرون لا ينتظرون دائما دليلا قاطعا على نجاح الشركة، بل إنهم غالبا ما يتصرفون على أساس الإثارة أو التوقعات أو مجرد الخوف من تفويت الفرصة. وهذا من شأنه أن يتسبب في تغييرات سريعة في أسعار الأسهم، حتى قبل أن تتاح التكنولوجيا الجديدة على نطاق واسع.
وقد تؤدي المضاربة في بعض الأحيان إلى عدم الاستقرار، ولكنها تساعد أيضا في دفع عجلة الابتكار. فعندما يستثمر المستثمرون أموالهم في شركات الذكاء الاصطناعي، فإن هذا يسمح لهذه الشركات بتطوير التكنولوجيا التي من شأنها أن تحسن حياة الناس اليومية. وقد حدث هذا من قبل ــ خلال طفرة الدوت كوم في تسعينيات القرن العشرين، اندفع الاستثمار إلى شركات الإنترنت الناشئة. وفي حين فشلت العديد من الشركات، أصبحت شركات أخرى مثل أمازون وجوجل من الشركات الرائدة عالميا.
وبالمثل، ارتفعت استثمارات العملات المشفرة في العقد الماضي. وفي حين أدت الضجة إلى العديد من حالات الفشل، أصبحت تقنية البلوك تشين ــ أحد ابتكاراتها الرئيسية ــ منذ ذلك الحين جزءا رئيسيا من أنظمة التمويل والأمن الحديثة.
هل هي فقاعة؟
ومع كل هذا القدر من الإثارة حول الذكاء الاصطناعي، يخشى بعض الخبراء أن تشهد الصناعة فقاعة مضاربة. تحدث الفقاعة عندما يضخ المستثمرون الأموال في قطاع ما بسرعة كبيرة، مما يؤدي إلى ارتفاع الأسعار إلى ما يتجاوز قيمتها الحقيقية. حدث هذا في أوائل العقد الأول من القرن الحادي والعشرين مع انهيار الدوت كوم الذي أعقب سنوات الطفرة في العقد السابق. تلقت العديد من شركات الإنترنت استثمارات ضخمة، ولكن عندما فشلت في الوفاء بوعودها انهارت الأسواق.
هل يمكن أن يحدث نفس الشيء مع الذكاء الاصطناعي؟ هذا ممكن - ولكن على عكس بعض الفقاعات السابقة، يتم استخدام الذكاء الاصطناعي بالفعل على نطاق واسع في الحياة اليومية. والسؤال الرئيسي ليس ما إذا كان الذكاء الاصطناعي مهمًا، بل ما إذا كانت الاستثمارات الحالية تعكس نموًا واقعيًا طويل الأجل أم تكهنات مفرطة في التفاؤل.
لا يعني بيع أسهم إنفيديا بالضرورة أنها تفقد مكانتها في مجال الذكاء الاصطناعي. بل قد يعكس ذلك محاولة المستثمرين تأمين رهاناتهم، ونقل بعض أموالهم إلى شركات أحدث مثل ديب سيك مع الاحتفاظ بإنفيديا في محافظهم.
بعبارة أخرى، يبحث المستثمرون عن "الشيء الكبير القادم" المحتمل (على سبيل المثال، تروج شركة التجارة الإلكترونية الصينية العملاقة علي بابا لنموذج ذكاء اصطناعي جديد يدعي أنه متفوق على نماذج ديب سيك وميتا). غالبًا ما يتسوق المستثمرون الأذكياء على هذا النحو لتوزيع المخاطر لتجنب الاعتماد بشكل كبير على شركة واحدة لتحقيق العائدات لهم.
بعيدًا عن إنفيديا وديب سيك، هناك سباق عالمي أكبر للهيمنة على الذكاء الاصطناعي. تستثمر الدول، بما في ذلك الولايات المتحدة والصين وبعض الدول الأوروبية، بكثافة في أبحاث الذكاء الاصطناعي لأنها تدرك مقدار القوة والتأثير الذي يمكن أن تجلبه هذه التكنولوجيا. تمول الحكومات مبادرات الذكاء الاصطناعي، وتصب الشركات الموارد لتكون أول من ينشئ أنظمة ذكاء اصطناعي رائدة.
ولكن في حين تعمل المضاربة والابتكار على دفع النمو، فإن التنظيم ضروري لمنع عدم استقرار السوق والمالية. إن تاريخ الانهيارات الاقتصادية يظهر أن المبالغة غير المنضبطة يمكن أن تؤدي إلى الإفراط في الاستثمار والانهيار في نهاية المطاف. ويتعين على الجهات التنظيمية أن تضمن عمل شركات الذكاء الاصطناعي والمستثمرين بشكل مسؤول، وموازنة النمو بالاستقرار.
على سبيل المثال، ينبغي للجهات التنظيمية أن تقدم إرشادات واضحة للاستثمار في الذكاء الاصطناعي، وتؤيد الشفافية حول المخاطر المالية للاستثمار، وأن تكون على اطلاع على فقاعات الاستثمار المحتملة في الذكاء الاصطناعي. ومن المهم أيضا أن تقدم سياسات حماية المستهلك لحماية المستثمرين الأفراد (غير المحترفين). وينبغي لها أن تشجع التعاون الدولي حول التنظيم، والعمل نحو مبادئ مشتركة.
إن المعركة بين ديب سيك ونفيديا هي علامة على كيفية تحويل الذكاء الاصطناعي للعالم. فالمستثمرون والجهات التنظيمية والمستهلكون العاديون لديهم جميعا مصلحة في كيفية تطور هذه التكنولوجيا. وفي حين أن المضاربة المالية قد تكون غير متوقعة، فإنها أيضا واحدة من القوى الدافعة وراء الابتكار الذي يشكل المستقبل.
الرسائل والمقالات و الآراء المنشورة في المنتدى بأسماء أصحابها أو بأسماء مستعارة لا تمثل بالضرورة الرأي الرسمي لصاحب الموقع أو سودانيز اون لاين بل تمثل وجهة نظر كاتبها
لا يمكنك نقل أو اقتباس اى مواد أعلامية من هذا الموقع الا بعد الحصول على اذن من الادارة