
عمان – في قطاع تكنولوجيا المعلومات ، أكد المتورطون في قطاع تكنولوجيا المعلومات على أن توزيع تطبيقات الذكاء الاصطناعي شكلت تحولًا نوعيًا في عالم المحتوى الرقمي ، والذي يفرض مسؤولية كبيرة على صانعي المحتوى لضمان الدقة والمصداقية.
أخبروا وكالة الأنباء الأردنية (Petra) أن التوزيع والتنوع والزيادة في تطبيقات الذكاء الاصطناعي يؤثر على دقة المحتوى ، ويؤكد أن الذكاء الاصطناعي لم يعد مجرد تقنية مستقبلية ، بل أصبح جزءًا مهمًا من حياتنا اليومية.
وأكدوا أن مواطني مخاطر المعلومات المضللة وكيفية التحقق من صحة المعلومات ، والدخول في القوانين والتشريعات لتنظيم استخدام تطبيقات الذكاء الاصطناعي لحماية المجتمع من المخاطر المحتملة.
وزير الاقتصاد الرقمي والاقتصاد ، المهندس.
وأضاف أن هذه الأدوات والتطبيقات على الرغم من قدرتها على تسريع الإنتاج وتحليل البيانات وتوفير حلول مبتكرة ، ولكنها يمكن أن تنتج في بعض الأحيان محتوى غير دقيق إذا لم تكن خاضعة للإشراف على العنصر البشري والتحقيق المكتوب ، وهو مؤشر على التحول الرقمي في صحة المعلومات والخدمة التي يمكن الحصول عليها في مجال الاستخدام الواعي للمواطن ، وإيجاد المعلومات المباشرة والثقة في مجال التحول الرقمي.
أوضح سميرات أن الوزارة كانت حريصة على دمج أخلاقيات المحتوى في سياستها الوطنية ، مثل سياسة الذكاء الاصطناعي الأردني لعام 2020 والميثاق الوطني لأخلاقيات الذكاء الاصطناعي التي تؤكد على مبادئ الشفافية والشمولية والخصوصية والموثوقية.
وأشار إلى أن الوزارة تعمل على تمكين الوكالات الحكومية من خلال المشاريع والمبادرات الاستراتيجية لرفع الوعي وبناء القدرة ، بما في ذلك إدراج مفاهيم الذكاء الاصطناعي في المناهج التعليمية و 3000 موظف حكومي.
مستشار التحول الرقمي ، الذكاء الاصطناعي والتقنيات الحديثة ، المهندس. لإنشاء حملات مقلقة واسعة النطاق ، مما يجعل من الصعب على المستخدمين العاديين التمييز بين الحقوق والمعلومات الخاطئة.
وأن مشكلة التحامل ، حيث تعتمد تطبيقات الذكاء الاصطناعي على البيانات المدربة عليها ، وإذا كانت هذه المعلومات تحتوي على تحيزات ، فإن التطبيقات ستعكس هذه التحيزات في نتائجها ، وهذا يمكن أن يؤدي إلى نشر معلومات غير دقيقة أو متحيزة ضد مجموعات معينة من الأشخاص ، والتي تزيد من التمييز والإرادة.
وأضاف أن أحد التحديات الأخرى هو مشكلة التحقق من المصدر ، فقد يكون من الصعب تحديد مصدر المحتوى الذي أنشأه الذكاء الاصطناعي ، خاصة مع تطوير تقنيات التزوير العميقة وغيرها ، ويجعل من الصعب التحقق من دقة ومصداقية المعلومات وزيادة خطر تفكيك سوء الفهم ، وكذلك التأثير على الخطوة والوسائط. يمكن استخدامها ، حيث يمكن استخدامها للتأثير على الصحافة ، حيث يمكن استخدامها ، حيث يمكن استخدامها. يمكن أن تؤدي الأخبار تلقائيًا إلى فقدان اللمس البشري والتحليل النقدي ، ولكن في نفس الوقت يمكن أن تساهم في تسارع معدل أعمال الصحافة.
وأضاف أن أحد التحديات هو أيضًا التحديات القانونية والأخلاقية ، حيث يمثل توزيع تطبيقات الذكاء الاصطناعي تحديات قانونية وأخلاقية جديدة ، مثل مسؤولية المحتوى الناتج عن الذكاء الاصطناعي وحقوق الملكية الفكرية وحماية البيانات الشخصية.
وفقًا لـ AL -Hefnawi ، فإن تطوير الأدوات والتقنيات تحت الحلول المقترحة للتحقق من صحة المحتوى الخاطئ وصحة المعلومات ، وتطوير معايير ومبادئ التوجيه والأخلاقيات لاستخدام وتطوير تطبيقات الذكاء الاصطناعي لضمان المسؤولية.
اقترح أيضًا أن مستوى الوعي بين المواطنين والجمهور يزيد من مخاطر المعلومات المضللة وكيفية التحقق من صحة المعلومات ، مما يشير إلى أن الذكاء الاصطناعي له إمكانات كبيرة ، لكنه يثير أيضًا تحديات كبيرة وبالتالي يتم تجنب التوازن بين هذه التكنولوجيا ومخاطرها عن طريق تجنب الضوابط الأخلاقية والقانونية الواضحة.
بدوره ، عميد كلية الذكاء الاصطناعي في الجامعة التطبيقية ، د. قال عمر الزعبي إن الذكاء الاصطناعي أصبح جزءًا مهمًا من حياتنا اليومية ، حيث تعتمد العديد من التطبيقات والمنصات الرقمية على أدوات الذكاء الاصطناعي لتوفير المعلومات وتحليل البيانات واتخاذ القرارات واتخاذ التوزيع الواسع ، ولديها صحة المحتوى.
وأضاف أن الذكاء الاصطناعي يتميز بالقدرة على تحليل كميات كبيرة من البيانات ، مما يزيد من دقة المحتوى من خلال التحقق المتقدم للمعلومات وتصفية الأخبار المضللة ، والخوارزميات الذكية تسهم أيضًا في توفير المحتوى المخصص للمستخدمين وفقًا لمصالحهم ، مما يحسن تجربة الوصول إلى المعلومات.
أشار الزوبي إلى أن انتشار تطبيقات الذكاء التوليدي ، مثل نماذج اللغة المتقدمة ، يمكن أن يؤدي في بعض الأحيان إلى إنتاج معلومات غير دقيقة أو متحيزة ، خاصةً إذا كانت البيانات المستخدمة في تدريب هذه الأنظمة غير موثوق بها ، وأن بعض المنصات الرقمية تعتمد على الذكاء المصطنع في رفع الأخبار والمقالات.
في أبرز التحديات التي تؤثر على دقة المحتوى بسبب الذكاء الاصطناعي ، أوضح أن الاعتماد المفرط على الخوارزميات دون مراجعة بشرية هو ، بالإضافة إلى إمكانية تكرار المعلومات الخاطئة بسبب استخدام البيانات غير الدقيقة في عملية التدريب.
وأنه من أجل ضمان توفير المحتوى الموثوق به ، يجب على وسائل الإعلام والمؤسسات التقنية تبني استراتيجيات تستند إلى التدقيق البشري ، وكذلك تطوير خوارزميات أكثر فعالية للكشف عن التحيز وضمان صحة البيانات.
أشار الزوبي إلى أنه يمكن استخدام أدوات الذكاء الاصطناعي لإنتاج محتوى لأغراض سياسية ، والتي أصبحت حقيقة واقعة مع تطورات سريعة في تقنيات الذكاء الاصطناعي من قبل التوليد ، حيث توفر هذه الأدوات القدرة على إنشاء مقالات ، أخبار ، صور ، مقاطع فيديو ، بطريقة خاطئة ، بطريقة تؤثر على أجندات سياسية مختلفة ، أو للتأثير على الرأي العام.
وأكد أن المستخدمين لديهم وعي حاسم للتعامل مع هذه التقنيات لضمان الاستفادة من المحتوى القائم على المحتوى دون الوقوع في فخ المعلومات غير الدقيقة.
وأشار إلى أهمية التحقق من مصادر وعدم الاعتماد على مصدر واحد فقط ، لمقارنة المعلومات مع الهيئات الرسمية والموثوقة ، لاستخدام أدوات التحقق المتاحة للكشف عن الأخبار المزيفة والمعلومات المضللة والاعتماد على منصات الوسائط المعروفة جيدًا التي تقلل من محتوىها قبل نشرها.
وتابع أنه ينبغي تجنب نشر أو جزء من أي معلومات قبل تأكيد أصالته ، مع تحديد كيفية عمل أنظمة الذكاء الاصطناعي لفهم نقاط القوة والضعف ، مما يساعد على التمييز بين المحتوى الصحيح والمخادع.
أشار الزعبي إلى أن الذكاء الاصطناعي هو ثورة في عالم إنتاج المحتوى ، ولكن في الوقت نفسه يفرض التحديات التي يجب أن تكون توازنًا بين فائدة القدرات وموثوقية ودقة المعلومات.
- سر انجذاب الأخرين إلى برج العذراء
- إصابات فلسطينيين بالاختناق خلال اقتحام قوات الاحتلال بلدة بيت كاحل جنوب الضفة الغربية
- حصاد الرياضة المصرية اليوم السبت 1 –2 – 2025 - اليوم السابع
اترك تعليقاً