شبكة الطيف الاخبارية - 5/12/2026 10:18:27 PM - GMT (+3 )
يبلغ عمر شركة Elsevier، الناشر الأكاديمي الهولندي للمجلات والأبحاث العلمية والطبية، حوالي 145 عامًا، وخلال تلك الفترة، شهدت ثلاثة اضطرابات تكنولوجية رئيسية: الصحافة المطبوعة، والمحتوى الرقمي عبر شبكة الإنترنت العالمية، والآن الذكاء الاصطناعي (AI).
بالنسبة لجيل لوبر، كبير مسؤولي التكنولوجيا في شركة Elsevier، يمكن استخدام الذكاء الاصطناعي لمساعدة الباحثين على فهم كميات هائلة من المعلومات. وتقول إن الذكاء الاصطناعي قادر على النظر في كل النصوص الموجودة في الأدبيات التي تقدمها Elsevier: “يمكن للذكاء الاصطناعي أن يضخم المفاهيم ويربط المقالات المختلفة معًا”. وبدون مساعدة الذكاء الاصطناعي، سيستغرق هذا عادةً ساعات وساعات من الإنسان، وقد يكون من المستحيل على أي شخص القيام به.
وفقًا للوبر، يمنح الذكاء الاصطناعي الباحثين القدرة على التنقيب في المحتوى، وفهم المعلومات التي يحتوي عليها، وإيجاد الروابط وإظهار المفاهيم الموجودة. وعلى نفس القدر من الأهمية، تقول لوبر إنها تكشف أيضًا ما تسميه “المساحة البيضاء”، وهي المعلومات التي لم يتم تناولها في الأوراق البحثية.
قبل الذكاء الاصطناعي، استخدم الباحثون عمليات البحث عن الكلمات الرئيسية لإظهار أجزاء من الأبحاث ذات الصلة، كما يوضح لوبر: “في العالم الرقمي، كان لدينا خوارزميات بحث قوية للغاية يمكننا فهرسة مجموعات كاملة من البيانات. يمكنك كتابة كلمات رئيسية للمفاهيم التي تبحث عنها وسيبحث محرك البحث في جميع الأدبيات بناءً على تلك الكلمات الرئيسية ثم يعرض المعلومات، كقائمة من النتائج”.
يوفر الذكاء الاصطناعي للباحثين القدرة على تجاوز عمليات البحث عن الكلمات الرئيسية والبحث بدلاً من ذلك عن مفاهيم كاملة ومفاهيم مجاورة، وليس فقط الكلمات الرئيسية.
وهذا يساعد الباحثين على تحديد مدى صحة أي مقالات بحثية يظهرها محرك الذكاء الاصطناعي. وتقول: “المهم حقًا في العلوم هو إمكانية إعادة الإنتاج. لدينا القدرة الآن على النظر في كل المحتوى الخاص بنا، والعثور على الأبحاث التي تم إعادة إنتاجها”. هناك مستوى أعلى من الثقة يرتبط بتلك المقالات التي يكون البحث فيها قابلاً للتكرار، مقابل البحث الذي لم يتمكن أحد من إعادة إنتاجه.
في حين أنه من الواضح أن هناك الكثير من الفوائد في استخدام الذكاء الاصطناعي لدعم البحث، إلا أن لوبر يشير إلى أن هناك خطرًا كبيرًا من أن نموذج اللغة الكبير (LLM) قد يسبب الهلوسة، ويقدم معلومات خاطئة. هناك أيضًا خطر التحيز الدائم. وهذا له تأثير مباشر على جودة ونزاهة البحث الذي يمكن إجراؤه باستخدام أدوات الذكاء الاصطناعي. هناك أيضًا خطر حقيقي للغاية يتمثل في احتمال ثقة الباحثين بالمخرجات التي تنتجها أداة الذكاء الاصطناعي، بدلاً من إجراء المزيد من البحث في الأفكار التي يمكن الآن تقديمها لهم بسهولة.
وتقول: “نحن كناشرين، لدينا مسؤولية حقيقية لحماية عالم النشر الأكاديمي من الذكاء الاصطناعي الذي يمكنه إنشاء ورقة بحثية من 30 صفحة من العدم حول العلوم المزيفة. إن مهمتنا هي حماية عالم النشر من ذلك”. “إنه أمر مقلق للغاية، وقد شهدنا زيادة كبيرة في العلوم الملفقة.”
وهو موضوع تحدث عنه لوبر مؤخرًا في معرض لندن للكتاب.
وفي حين يجب على الباحثين أن يكونوا على دراية بمخاطر الهلوسة عند استخدام أدوات الذكاء الاصطناعي لتحليل الأبحاث المشروعة، يقول لوبر: “إننا نشهد بعض النماذج المدربة على مجالات علمية وصحية محددة، وهي تتحسن في الإجابة على الأسئلة الخاصة بمجال معين”.
ومثل العديد من الأشخاص العاملين في مجال الذكاء الاصطناعي، فهي تدرك أهمية الرقابة البشرية. وهذا مشابه للرقابة البشرية على مراجعة النظراء الراسخة في النشر الأكاديمي.
أداة الذكاء الاصطناعي الأساسية لشركة Elsevier هي LeapSpace. يستخدم هذا التقييم البشري، حيث يقوم خبراء المجال المختلفون باختبار جودة ودقة المخرجات التي تولدها النماذج بناءً على الأسئلة المطروحة. يقول لوبر إن التقييم ينظر في ما إذا كان قد تم التقاط المعلومات الصحيحة، وبشكل ملحوظ، ما إذا كانت النتائج ضارة بالفعل. وتضيف قائلة: “نحن نستخدم التقييم البشري لمواصلة مساعدتنا في تعديل ماجستير إدارة الأعمال والمنتجات التي تستخدمها”.
إقرأ المزيد


