
في خطوة أثارت الكثير من الجدل، أطلق نموذج الذكاء الاصطناعي الجديد “R1-0528” من شركة DeepSeek الصينية تساؤلات حول مصدر بياناته. هذا النموذج، الذي أظهر أداءً متميزًا في مجالات البرمجة والرياضيات، يُعتقد أنه يعتمد على مخرجات نماذج Gemini التي تطورها Google.
مزاعم حول الاعتماد على بيانات Gemini
مقال له علاقة: بيكسل 17 يقدم تجربة “سطح مكتب” جديدة للمستخدمين
بدأ الجدل عندما أشار سام بيتش، مطور مختص في تقييمات الذكاء العاطفي، إلى وجود دلائل تدعم هذا الادعاء عبر منشور له على منصة X. وقد ذكر أن التعبيرات اللغوية المستخدمة في النموذج تقترب بشكل كبير من تلك المفضلة في نموذج Gemini 2.5 Pro، مما يعزز الشكوك حول أصول البيانات المستخدمة في التدريب.
اتهامات سابقة
لم يكن هذا الاتهام الأول الذي تواجهه DeepSeek؛ ففي ديسمبر الماضي، تم الإبلاغ عن أن نموذج V3 الخاص بها كان يعرف نفسه أحيانًا باسم “ChatGPT”. كما اكتشفت OpenAI دلائل تشير إلى استخدام تقنيات مثل “التقطير” لاستخلاص المعرفة من النماذج الأحدث. ومن المهم الإشارة إلى أن استخدام هذه البيانات يُعتبر انتهاكًا لشروط الخدمة الخاصة بـOpenAI.
التحديات في التحقق من البيانات
من ناحية أخرى، ناقش الخبراء الصعوبات المرتبطة بالتحقق من مصادر البيانات بسبب ما يُعرف بتلوث الإنترنت بمحتوى مُولد بواسطة الذكاء الاصطناعي. حيث يسيطر هذا المحتوى الرديء على منصات الإنترنت، مما يجعل عملية التحقق من مصادر البيانات أمرًا بالغ التعقيد.
ممكن يعجبك: “أوبن إيه أي” تسعى لجعل ChatGPT “المساعد الفائق” في حياتك بحلول منتصف 2025
الإجراءات الأمنية المتزايدة
اتخذت بعض الشركات مثل OpenAI تدابير أمنية صارمة للحد من استخدام تقنيات التقطير. وفي الآونة الأخيرة، بدأت Google بتلخيص “آثار التفكير” الناتجة عن نماذجها، مما يصعب على المنافسين الاستفادة منها لتطوير نماذج مشابهة.
حتى الآن، لا تزال Google غير معنية بالإفصاح عن تفاصيل هذه الادعاءات بينما تتجه الأنظار للحصول على رد رسمي من الشركة.