مش مختلف ومقولتش انها معيبة على فكرة ...وجود ورك طبعاً
انا بس باعرض رأئي الخبراء والمختصين انة مش بالخطورة اللي الناس متخيلاها على chatgbt و nvidia وهيبان اكثر مع تشديد الحظر على الرقائق
لا انا مختلف معاك تماما
Deepseek ده كده خطر ولسا كمان ظاهر مودل أقوى أو زيه اسمه kimi
و لسا من كم ساعة qwen مطلعة مودل جديد ليها
فبقا فيه تنافس قوي دلوقتي
وبقا فيه فعلا مودليز بدل ما عيا شغالة بس LLM بقت كمان بتتوجه VLM
وده خطر على نيفديا و جي بي تي
ضيف حاجة خطيرة جدا
الشركات الأمريكية في LLM
بالعلماء و المختصين دماغهم واقفة عند معضلة في الخوارزميات الرياضية وهي ال BASE لل LLM
بمعنى وده هوضحوا بمثال
كل موديل يطلع جديد بيكون اكثر دقة بس اكبر من اللي قبله وبيستهلك طاقة اكتر من اللي قبله بلس محتاج GPUS اكتر من اللي قبله
وأصبح المودل كل ما تديه parameters اكتر يبقى هوا intelligent اكتر
لكن الحقيقة الصعبة ان الموديلز اللي بتطلع من امريكا كلها حافظة مش فاهمة حاجة
ودي الكارثة الكبيرة
كل شوية بيدوا داتا اكتر واكتر واكتر عشان يعرف اللغات ويبدأ يعرف ده بيقول ايه ... لكن لك أن تتخيل انك كلمته في حاجة out of the box بالنسبة ليه هيجاوب إجابة خزعبلية
وظهر ده جلي اوي لما كان ما يداي chat gpt 3.5
لكن عشان يعالجوا ده ابتدوا يزودوا داتا اكتر .. بس انت بس لسا في نفس المعضلة دي
بالنسبة للصين في ٢ من الاراء اتكلموا عن موديل deepseek
الأول استخدام h100 اللي مش بيتم استخدامه اساسا دلوقتي من قبل امريكا
ولكن الموديل بيحقق performance كبير جدا مقارنة ChatGPT
وده مؤشر لحاجة خطر جدا انك قدرت تلعب في موديل ال transformers LLM
وخليته يقدر يحقق كفاءة عالية على أجهزة أضعف و بكهرباء وطاقة اقل
الرأي التاني استخدام كروت شاشة جديدة مصنوعة في الصين و الطاقة اقل ب ٥ في المية وده طبعا شي مذهل
مع أن الرأي الثاني منطقي جدا بالنسبة ليا
بس خد الفاجعة الأكبر
الجامعات الصينية دلوقتي شغالة على ومعامل الأبحاث بتاعتها شغالين ازاي يقدروا يقللوا من حجم الموديل و كمان استهلاك طاقة بخوارزمية جديدة
على ايه Quantum computing ويكون الضربة القاضية لامريكا
بس مش عارف هل كده السباق هينتهي ولا لأ
الله اعلم