AMD مدعی است تراشههایش مدلهای زبانی بزرگ را 79 درصد سریعتر از اینتل پردازش میکنند
شرکت AMD ادعا میکند که تراشههایش 79 درصد سریعتر از اینتل مدلهای زبانی بزرگ (LLM) را پردازش میکنند. در چند وقت اخیر، با پررنگترشدن ابزارهای هوش مصنوعی مولد، شرکتهای تراشهسازی رقابت سنگینی را با یکدیگر در پیش گرفتهاند. حالا AMD مدعی شده است که در این زمینه، عملکردی بهتر از اینتل ارائه میدهد.
براساس اعلام سایت AMD، پردازندههای رایزن سری 7040 Phoenix و Mobile 8040 این شرکت در مدلهای مختلف زبانی بزرگ تا 79 درصد بهتر از پردازندههای Core Ultra Meteor Lake اینتل عمل میکنند. AMD از بنچمارکهای مختلفی برای مقایسه پردازنده Core Ultra 7 155H اینتل با Ryzen 7 8740U استفاده کرده است. هر دو تراشه دارای واحدهای پردازش عصبی مبتنی بر سختافزار (NPU) هستند.
مقایسه تراشههای AMD و اینتل در پردازش LLM
AMD برای بررسی عملکرد تراشههایش از مدلهای زبانی بزرگ مختلفی مانند Llama v2 متا و Mistral Instruct 7B استفاده کرده است. در پردازش Llama v2 تراشه AMD حدود 79 درصد سریعتر از تراشه اینتل است. AMD برای مقایسه عملکرد تراشه خود با تراشه اینتل دو لپتاپ بهینهشده برای هوش مصنوعی با قیمتهای مشابه را نیز در نظر گرفته است که باتوجه به بررسیها، لپتاپ مجهز به پردازنده AMD عملکرد بهتری دارد.
با آنکه در بررسی بنچمارکها، AMD عملکرد بهتری نسبت به رقیب خودش یعنی اینتل نشان داده، اما این بدان معنا نیست که AMD برنده این رقابت شده است. این تراشهها زمانی به بهترین شکل عمل میکنند که شرکتها و توسعهدهندگان خدماتی را ایجاد کرده و از این تراشهها پشتیبانی کنند. چون این تراشهها با نرمافزارهای تخصصی بهتر میتوانند با دیگر سختافزارها تعامل داشته باشد و LLMها را بهتر پردازش کنند. بهعنوان مثال، وقتی مایکروسافت اعلام کرد که DirectML فقط از NPU تراشههای اینتل پشتیبانی میکند، به این معنی بود که توسعهدهندگان میتوانند بهتر با NPUهای اینتل تعامل داشته باشند، درحالی که AMD در این رقابت عقب ماند.