الذكاء الاصطناعي بين الهوس والخوف: أزمة العلامة التجارية التي تواجهها الشركات الكبرى

على الرغم من كونه أبرز التطورات التكنولوجية في جيلنا، يواجه الذكاء الاصطناعي (AI) رفضًا متزايدًا من قبل الجمهور الأمريكي. تشير استطلاعات الرأي الأخيرة إلى أن القلق يتفوق على الحماس، خاصة فيما يتعلق بتأثيراته على الإبداع والعلاقات الإنسانية. فبينما يتزايد استخدام هذه التكنولوجيا، تزداد معها المخاوف من فقدان الوظائف، والغش، والمشورة المشكوك فيها، والاستهلاك المفرط للطاقة، وحتى سيناريوهات نهاية العالم المحتملة، بما في ذلك القضاء على البشرية.

في مارس الماضي، كشفت استطلاعات NBC أن 57% من المشاركين他们认为 مخاطر الذكاء الاصطناعي لا تستحق الفوائد المحتملة. ورغم وجود أسباب عديدة لهذا النفور، إلا أن أحد أبرزها هو الرسائل التي تطلقها الشركات الرائدة في هذا المجال، وخاصة من قادتها.

تصريحات القادة: بين التحذير والمسؤولية

في مثال حديث، أعلنت شركة Anthropic، الرائدة في مجال الذكاء الاصطناعي، عن تقييد الوصول إلى أداتها الأمنية الجديدة Mythos، بحجة أنها قوية للغاية لدرجة قد تعرضها للاستخدام من قبل مجرمين أو جهات خبيثة. وردًا على ذلك، سخر سام ألتمان، الرئيس التنفيذي لشركة OpenAI، من هذا القرار ووصفه بأنه «تسويق قائم على الخوف». لكن لم يمض وقت طويل حتى أطلقت OpenAI بدورها أداة أمنية جديدة، وقامت بتقييد وصول الجمهور إليها أيضًا.

هذا المثال يعكس ظاهرة غريبة في قطاع الذكاء الاصطناعي: الشركات الكبرى تبدو مصممة على تذكير العملاء في كل إطلاق منتج جديد بكيفية تدمير هذه التكنولوجيا لحياتنا. في حين أن هذا قد يكون جزءًا من دورة الدعاية، إلا أن الإصرار على تسليط الضوء على المخاطر قد لا يكون استراتيجية تسويقية ناجحة، خاصة مع تزايد الشكوك حول هذه التكنولوجيا.

«إن التشاؤم الصاخب الذي تروج له هذه الشركات لا يقتصر على هذه الحادثة، بل هو ظاهرة متكررة».

الرسائل المتضاربة: بين التحذيرات والوعود الكبرى

عندما أطلقت OpenAI نموذج GPT-4 في مارس 2023، لم تكتفِ الشركة بالإشادة بقدراته التاريخية، بل أرفقت تقريرها الفني بجزء مخصص لاستخداماته المحتملة في صنع القنابل أو خلط المواد الكيميائية الخطيرة. وبعد ذلك بوقت قصير، وقع مئات الباحثين والمهندسين في مجال الذكاء الاصطناعي، بما في ذلك ممثلون من Anthropic وGoogle DeepMind وOpenAI نفسها، على رسالة مفتوحة تحذر من أن الذكاء الاصطناعي يشكل خطرًا وجوديًا مماثلًا لخطر الحرب النووية.

على الرغم من أن العديد من قادة الشركات يدعون إلى وجود رقابة حكومية، إلا أن شركة OpenAI نفسها تأسست في الأصل كمنظمة غير ربحية، لأن التكنولوجيا كانت تُعتبر خطيرة للغاية بحيث لا يمكن تركها تحت رحمة منطق الربح «تحرك بسرعة واكسر الأشياء».

من الواضح أن هذه الشركات لا ينبغي لها أن تخفي المخاطر الكامنة في منتجاتها، لكن السؤال يظل مطروحًا: هل تسمح فرق التسويق في هذه الشركات للخوف والدمار بتعريف علاماتها التجارية؟

الإعلانات الكبرى: بين العمومية والواقع

على الرغم من ظهور العديد من الإعلانات المتعلقة بالذكاء الاصطناعي في سوبر بول هذا العام، إلا أن معظمها ركز على الإمكانيات العامة لهذه التكنولوجيا («يمكنك ببساطة بناء الأشياء») دون تقديم تفاصيل عملية حول الفوائد اليومية التي يمكن أن يجنيها المستهلكون. في الوقت نفسه، تبرز المخاوف من أن الشركات الكبرى في هذا القطاع، بدلاً من تسليط الضوء على الحلول، تركز على التهديدات، مما يزيد من نفور الجمهور.

في ظل هذا المشهد، يبدو أن قادة الشركات في قطاع الذكاء الاصطناعي يواجهون تحديًا كبيرًا: كيف يمكنهم بناء ثقة الجمهور في تكنولوجيا قد تغير مستقبل البشرية، دون أن يبدو أنهم يروجون لخطرها؟

المصدر: Fast Company