النهار
الجمعة 22 نوفمبر 2024 05:51 مـ 21 جمادى أول 1446 هـ
جريدة النهار المصرية رئيس مجلس الإدارة ورئيس التحريرأسامة شرشر
البنك الأهلي يتقدم بهدف ضد بيراميدز في الشوط الأول بالدوري الممتاز باحث بجامعة «لويزيانا» يحصل على الدكتوراه في «علوم البحار البيولوجية» من جامعة الأزهر رئيس البرلمان العربي يلتقي وزير الشئون النيابية المصري ويؤكدان على أهمية التكامل بين الدبلوماسية الرسمية والدبلوماسية البرلمانية زراعة المنوفية: استمرار عمل لجان المراقبة والمتابعة على الجمعيات التقرير الأسبوعي لـ وزارة التربية والتعليم.. أبرز الأنشطة وأهم القرارات بسبب كاتيل شاي.. السيطرة على حريق بكشك أمن بكلية العلوم ببورسعيد ‎“ساعة مصرية”.. برنامج جديد على قناة النيل للأخبار قريبًا ” الملتقى العربي الدولي للصناعات الصغيـرة والمتوسطة ” يختتم أعماله بالتأكيد على أهمية تسريع وتيرة التحول الرقمي في كافة المجالات الصناعية زاخاروفا: زلة لسان زيلينسكي تثبت تعاطيه المخدرات بعد ضربة ”أوريشنيك”.. وزير خارجية إيطاليا يطالب أوروبا بالسعي للسلام في أوكرانيا رامي صبري عن أحمد الفيشاوي: لاسع بس بيفهم في المزيكا رامي صبري: مقدرش ألبس ”حلق” بخاف من الجمهور وبحترمه

تكنولوجيا وانترنت

معالج Intel Xeon 6 يسجل أداء مميزا في مجال الذكاء الاصطناعي

نشرت MLCommons، اليوم نتائج مجموعة معايير أداء الذكاء الاصطناعي القياسية في الصناعة MLPerf Inference v4.1 ، حيث حققت انتل نتائج متميزة عبر ستة معايير MLPerf لمعالجات الجيل الخامس Intel®️ Xeon®️ Scalable، وللمرة الأولى، معالجات Intel®️ Xeon®️ 6 ذات نوى الأداء (P-cores) فقد حققت معالجات Intel Xeon 6 ذات نوى الأداء تحسنًا في الأداء بمقدار 1.9 ضعفًا في متوسط ​​أداء الذكاء الاصطناعي مقارنة بمعالجات الجيل الخامس Xeon.

ومن جانبها ، قالت بالافي ماهاجان، نائب رئيس شركة إنتل والمدير العام لمركز البيانات وبرامج الذكاء الاصطناعي "إن أحدث نتائج MLPerf أظهرت مدى أهمية الاستثمار المستمر وتوفير الموارد لتحسين أداء الذكاء الاصطناعي، فعلى مدار السنوات الأربع الماضية، رفعنا مستوى أداء الذكاء الاصطناعي على معالجات Intel Xeon بما يصل إلى 17 ضعفًا استنادًا إلى MLPerf" مؤكدة أن الشركة نتطلع إلى زيادة إنتاج Xeon 6 .

لماذا تعد نتائج MLPerf مهمة: تتطلب أنظمة الذكاء الاصطناعي وحدات المعالجة المركزية كمكون أساسي لنشر الحلول بنجاح عبر مجموعة متنوعة من السيناريوهات ويوفر Intel Xeon حلاً رائعًا لاستنتاج الذكاء الاصطناعي، بما في ذلك التعلم الآلي الكلاسيكي وتضمين البحث المتجهي.

وكانت شركة انتل قد قدمت معالجات Intel Xeon من الجيل الخامس ومعالجات Xeon 6 مع P-Cores على ResNet50 وRetinaNet و3DUNet وBERT وDLRM v2 وGPT-J إلى 1.MLPerf Inference v4.

وبالمقارنة مع الجيل الخامس من Intel Xeon، يوفر Xeon 6 متوسط ​​أداء أفضل بنحو 1.9 مرة في استنتاج الذكاء الاصطناعي عبر هذه المعايير الستة ،وتظل شركة انتل هي بائع معالجات الخوادم الوحيد الذي يقدم نتائج وحدة المعالجة المركزية إلى MLPerf.

وعلى مدار السنوات الأربع الماضية، حققت شركة إنتل مكاسب كبيرة في أداء الذكاء الاصطناعي مع وحدات المعالجة المركزية منذ أن قدمت نتائج MLPerf لأول مرة.

وبالمقارنة مع معالجات الجيل الثالث Intel®️ Xeon®️ القابلة للتطوير في عام 2021، فإن أداء Xeon 6 أفضل بما يصل إلى 17 مرة في معالجة اللغة الطبيعية (BERT) وأفضل بما يصل إلى 15 مرة في أحمال عمل الرؤية الحاسوبية (ResNet50).

كما تواصل إنتل الاستثمار في الذكاء الاصطناعي لخريطة طريق وحدات المعالجة المركزية الخاصة بها. على سبيل المثال، تواصل الابتكار مع Intel®️ Advanced Matrix Extensions (AMX) من خلال أنواع بيانات جديدة وكفاءة متزايدة.

كيف تدعم Intel عملاء الذكاء الاصطناعي: تسلط أحدث معايير MLCommons الضوء على كيفية تقديم معالجات Xeon حلول خادم الذكاء الاصطناعي القوية لوحدة المعالجة المركزية لمصنعي المعدات الأصلية (OEMs).


ومع تزايد الحاجة إلى الحوسبة القائمة على الذكاء الاصطناعي وتشغيل العديد من العملاء لأحمال عمل الذكاء الاصطناعي جنبًا إلى جنب مع أحمال عمل المؤسسات الخاصة بهم، تعطي شركات تصنيع المعدات الأصلية الأولوية لعمليات تقديم MLPerf لضمان تقديم أنظمة Xeon عالية الأداء ومُحسّنة لأحمال عمل الذكاء الاصطناعي للعملاء.

كما دعمت شركة انتل خمسة شركاء من شركات تصنيع المعدات الأصلية - Cisco وDell Technologies وHPE وQuanta وSupermicro - من خلال تقديماتهم لـ MLPerf في هذه الجولة حيث قدم كل عميل نتائج MLPerf باستخدام معالجات Xeon Scalable من الجيل الخامس، مما يدل على دعم أنظمتهم لمجموعة متنوعة من أحمال عمل الذكاء الاصطناعي ونشرها.

فالخطوة التالية، ستقوم شركة Intel بتقديم المزيد من المعلومات حول معالجات Xeon 6 ذات نوى P خلال حدث الإطلاق في سبتمبر الجاري.