مثنى عبد الله يكتب: الذكاء الاصطناعي والذكاء الفطري

profile
  • clock 30 مايو 2023, 4:21:34 م
  • تم نسخ عنوان المقال إلى الحافظة
Slide 01

سرّع العام 2020 انتقال كل المجتمعات تقريبا الى عصر الذكاء الاصطناعي بسبب جائحة كورونا، وبات الجميع يعيش واقعا جديدا لم نألفه من قبل. فعلى الرغم من إقفال الحدود ومحدودية التنقل بقيت التفاعلات البشرية مستمرة وبشكل كبير على الفضاء السبرياني باستخدام الذكاء الاصطناعي. وبعد أن شعر البشر بأن هذه الوسيلة قادرة على الدفع بالحياة بشكل جيد ازدادت شهرتها من خلال جي بي تي شات وشبيهاتها، مما يُعرف اليوم بروبوتات المحادثة التي باتت تجيب على كل سؤال تقريبا. لكن هذا التقدم التقني أثار قلق الكثير من الناس وبينهم مختصون في هذا المجال نفسه. مصدر القلق هذا نابع من النتائج التي قد تترتب على البشرية، في حالة تفوق الذكاء الاصطناعي يوما على البشر. فاليوم هنالك أوجه متعددة وطرق مختلفة تتفوق فيها أجهزة الكومبيوتر على البشر، خاصة في مجال القدرة على معاملة البيانات، إيجاد الأنماط في البيانات، وحتى اجتياز اختبارات تخصصية ذات مستوى عال. كل هذه معايير عالية نسبيا بالنسبة للبشر. لكن علينا أن ندرك أن ذلك لا يعني أن الذكاء الاصطناعي وروبوتات المحادثة سوف تغطي كل أوجه الذكاء. هنالك مجالات أخرى لحد الآن لم تستطع هذه الوسيلة مقاربتها. فالوعي والمشاعر التي يمتلكها البشر هي حق حصري لهم، ولا يمكن أن يصل اليها الذكاء الاصطناعي. بالتالي يجب اليقين بذكائنا الفطري وبأن هذه التقنية هي من صنع الإنسان، مع التركيز على الاستفادة القصوى منها والنأي بأنفسنا عن سلبياتها.

العديد من العلماء والمختصين اقترحوا القضاء على مشاريع الذكاء الاصطناعي أو إيقاف العمل بها كليا، لكن لا يوجد اتفاق بين الجميع على ذلك حتى الآن

ومع ذلك تبقى الحيطة والحذر واجبة لأن هذه التقنية قادرة على تهديدنا فعليا. فعندما تتدرب هذه الوسيلة على مجموعة من المعلومات والبيانات، ثم يأتي من يستولي عليها، فإن استخدامها لتحقيق الضرر قائمة في ظل عدم وجود حماية. وفي الولايات المتحدة اليوم هنالك دعاوى كثيرة في المحاكم بهذا الخصوص. أيضا هنالك مخاوف من المعلومات المغلوطة والأخبار الكاذبة التي يمكن أن يمررها البعض على المجتمع. وقد حدث هذا بالفعل على مواقع التواصل الاجتماعي، خاصة في مسألة التأثير على الانتخابات في أماكن كثيرة في العالم. وربما الأكثر ضررا هي المخاوف من التشرد الوظيفي، حيث توجد تقارير تقول إن حوالي 300 مليون شخص، سوف يتأثرون وظيفيا بسبب تقنية الذكاء الاصطناعي. وكذلك مخاوف من تفاوت الدخل والفرص الاقتصادية المتاحة للأشخاص حول العالم. وعدم وجود تنفيس لهذه المخاوف مرده القصور في التشريعات القانونية، حيث مازال سير الحكومات في هذا الجانب ليس على نفس الوتيرة التي يتقدم بها هذا الذكاء والتطور القني بشكل عام. لكن السؤال الاكثر إلحاحا هو، هل يوجد خطر وجودي على البشرية من تقنية الذكاء الاصطناعي؟
لعل الإجابة الاكثر مصداقية على هذا السؤال يمكن أن نستقيها من المهندس جيفري هنتون، الذي كانت أبحاثه في مجال التعلم العميق والشبكات العصبية، هي التي مهدت الطريق لولادة الذكاء الاصطناعي. لكنه أعلن استقالته من شركة غوغل مؤخرا بسبب القلق الذي أنتابه من هذه التقنية. يقول جيفري: «نوع الذكاء الذي نطوّره يختلف عن الذكاء الذي نتحلى به. نحن أنظمة بيولوجية وهذه أنظمة رقمية لها عدة نسخ، تتعلم بشكل منفرد ولكنها تشارك المعلومة بشكل لحظي. وهذا يبين كيف يمكن لروبوتات المحادثة أن تعرف أكثر من أي شخص». ويُضيف: «حاليا تلك الأنظمة ليست أكثر ذكاء منا، ولكنها قد تصبح كذلك في وقت قريب». كما يقول إن هنالك مخاوف على المدى القصير تؤثر سلبا على سوق العمل، وأخرى على المدى الطويل يمكن تسميتها مخاطر وجودية. لأن هذه التقنية باتت قوية للغاية الى حد قد تخرج عن السيطرة، في حالة وجود طغاة يسيئون استخدامها. ويضرب مثالا على ذلك في ميدان المعركة، حيث يعمد رجل آلي الى قتل رجل آلي آخر، ولأن الرجل الآلي قد يكون مبرمجا، بحيث يحقق الهدف المرجو من تصنيعه، ألا وهو القتل وإلحاق الضرر بالآخرين، فإن ذلك سوف يكون قريبا الى حد ما من مسألة الأسلحة التقليدية. بالتالي المسألة هي تحديات قد تفتح أمامنا الباب نحو احتمالات غامضة.
أمام كل هذه المخاوف والمديات الغامضة يبدو التساؤل مشروعا عن وسائل الحماية. صحيح أن العديد من العلماء والمختصين اقترحوا القضاء على مشاريع الذكاء الاصطناعي، أو إيقاف العمل بها كليا، لكن لا يوجد اتفاق بين الجميع على ذلك حتى الآن. فهذه التقنية هي مورد مالي كبير جدا للعديد من الشركات العاملة في هذا المجال. وهذه الشركات هي القوة الدافعة التي تقف خلف تقنية الذكاء الاصطناعي. كما أن البشر لم يعد يأبهوا بالقيم البشرية التي تمكنت الشركات التكنولوجية من القضاء عليها، فلم تعد هنالك حماية للبيانات والخصوصية، وراحت تتلصص وتتجسس على الناس. وأفلتت من العقاب لسنوات عديدة. وسمحنا لها بتحقيق أرباح طائلة على حساب بياناتنا فاستغلت مواطن الضعف النفسية لدى البشر بهدف تعميم استخدام وسائل التواصل الاجتماعي. أضف الى ذلك أن النظام الرأسمالي وسياسة السوق الحرة سمحت لشركات التكنولوجيا بأن تعبث بهذا النوع من المجالات. وهذا هو الخطر الاساسي الذي قد نواجهه الآن مع الذكاء الاصطناعي، ومع الجهات التي تحاول تطويره. بالتالي يجب أن نبين بالفعل ما الذي يمكن أن تحققه هذه التكنولوجيا، وما مدى الضرر الذي يمكن أن تلحقه بنا أفرادا ومجتمعات.
إن السرعة التي تتطور فيها هذه التقنية تفرض على الحكومات والمُشرّعين الإسراع في سن القوانين والتشريعات، بما يتلاءم مع السرعة التي تمضي فيها هذه التكنولوجيا. طبعا على المدى البعيد هنالك أضرار ومخاوف كبيرة، ولكن البشر قادرون على التطور في مواكبة ذلك والتعامل معه. وهذا رأيناه عبر التاريخ، عندما اخترع الإنسان أسلحة فيها مخاطر وجودية، بداية من الأسلحة التقليدية الى الأسلحة النووية. لكن الأهم هو أن من يجب عليه حماية حقوق الأفراد والمجتمع هي الدول، التي يجب أن توفر الحماية اللازمة من سلبيات هذه التقنيات. لكن للأسف الشديد أننا عندما ننظر الآن الى الصورة نجد أن الدول قد فوّضت وأعطت كل القطاعات التي تضمن الخدمات العمومية والأفراد الأساسية الى الشركات بما فيها شركات التكنولوجيا، لأننا عندما نتكلم عن عصر الذكاء الاصطناعي نجد أن التعليم عن بعد يتم بواسطة الأنظمة الذكية، الصحة أصبحت تُدار عن بُعد، وكذلك الاقتصاد والتجارة الالكترونية والعُملة الالكترونية وغيرها من القطاعات الأخرى.
 


 


هام : هذا المقال يعبر فقط عن رأي الكاتب ولا يعبر عن رأي فريق التحرير
التعليقات (0)