القائمة
تابعنا على
الآن
“جوجل” تحذر من المخاطر المحتملة للذكاء الاصطناعي!
نشر: بتاريخ 2023/04/24 في قسم: المشاهدات:
126 مشاهدة

قال سوندار بيتشاي، الرئيس التنفيذي لغوغل وAlphabet، إن الذكاء الاصطناعي (AI) سيؤثر قريبا على “كل منتج من منتجات كل شركة، محذرا من المخاطر التي تشكلها التكنولوجيا على قطاعات التوظيف وتوزيع المعلومات المضللة.

 

وقال بيتشاي لشبكة التلفزيون الأمريكية CBS: ” نحن بحاجة إلى التكيف مع ذلك كمجتمع”. وأضاف أن نمو الوظائف واستدامتها سيتعطلان بالنسبة للصناعات التي تعتمد على ما أشار إليه بـ “عمال المعرفة”، مثل الكتّاب والمحاسبين – وحتى المهندسين الذين صمموا البرمجيات.

 

وأطلقت غوغل “روبوت الدردشة” للذكاء الاصطناعي، Bard، الشهر الماضي. وجاء ذلك بعد ظهور برنامج ChatGPT عبر الإنترنت من OpenAI في عام 2022، والذي حظي بدعاية كبيرة لقدرته على إعداد أوراق أكاديمية وكتابة مقاطع نثرية معقدة ومفصلة بلغة تشبه لغة الإنسان، من بين أدوات أخرى.

 

ومع ذلك، فإن روبوتات الدردشة التي تعمل بالذكاء الاصطناعي – وتحديدا ChatGPT – كان لها منتقدوها. وتم حظره في إيطاليا في وقت سابق من هذا الشهر بسبب مخاوف محتملة تتعلق بالخصوصية، بينما دعا عمالقة التكنولوجيا إيلون موسك وستيف وزنياك، إلى جانب عشرات الأكاديميين، إلى إيقاف تجارب الذكاء الاصطناعي مؤقتا. ويجب “تدقيق التكنولوجيا بدقة والإشراف عليها من قبل خبراء خارجيين مستقلين”، وهي رسالة مفتوحة وقعها موسك ووزنياك.

 

 

وحذر بيتشاي أيضا من المخاطر المحتملة للذكاء الاصطناعي. وقال إن انتشار الأخبار ومقاطع الفيديو والصور المزيفة سيكون “أكبر بكثير”، و”قد يتسبب في ضرر”. وسبق أن نشرت غوغل وثيقة عبر الإنترنت تدعو إلى تنظيم التكنولوجيا للتأكد من أنها “تتماشى مع القيم الإنسانية بما في ذلك الأخلاق”.

 

وأوضح لشبكة CBS: ” ليس للشركة أن تقرر. لهذا السبب أعتقد أن تطوير هذا لا يجب أن يشمل فقط المهندسين ولكن علماء الاجتماع وعلماء الأخلاق والفلاسفة وما إلى ذلك”. ووفقا لبيتشاي، لا يزال هناك “صندوق أسود” في الذكاء الاصطناعي “لا نفهمه تماما”.

 

ولم يخل كل من ChatGPT وBard  من أخطائها. عندما طُلب من Bard شرح التضخم ل‍سكوت بيلي من شبكة CBS، أوصى بقراءة خمسة كتب لفهم الموضوع بشكل أفضل – لم يكن أي منها موجودا. وفشل ChatGPT  أيضا في بعض المهام الأساسية، وقد ورد أنه قدم إجابات تبدو معقولة ولكنها غير صحيحة تماما بالنسبة للاستفسارات.

اقرأ ايضاً
© 2024 جميع الحقوق محفوظة الى Taraf Iraqi