-
شماره ركورد
19223
-
شماره راهنما(اين فيلد مربوط به كارشناس ميباشد لطفا آن را خالي بگذاريد)
۱۹۲۲۳
-
پديد آورنده
سيد عليرضا ثنائي كوهرودي
-
عنوان
ارائه يك پروتكل كم تأخير شبكه لايه انتقال براي برنامههاي موازي سطح بالا در مراكز داده با سختافزار معمولي
-
مقطع تحصيلي
كارشناسي ارشد
-
رشته تحصيلي
نرمافزار
-
سال تحصيل
1395
-
تاريخ دفاع
۱۳۹۷/۰۴/۱۶
-
استاد راهنما
دكتر محسن شريفي
-
دانشكده
كامپيوتر
-
چكيده
مسئله تاخير در مراكز داده يكي از مهمترين چالشهاي موجود در اين حوزه است. از آن جا كه كيفيت سرويس بسياري از كاربردها در مراكز داده با تعريف ميانگين حداقل زمان انتظار براي خدمترساني خود هستند. بنابراين مراكز داده بايد قادر باشند تا تضمينهاي حداقلي محكمي براي كاربران ارائه دهند. الگوهاي مختلف بارهاي كاري در مراكز داده وجود دارند. اختصاص و مديريت منابع در مراكز داده به كاربردها با توجه به كيفيت خدمت مورد نياز و تعيين شده توسط كاربر صورت ميگيرد و سيستمها بايد قادر باشند تا منابع مذكور را طوري مديريت كنند كه هيچ كدام از اهداف كيفيت خدمت نقض نشود. روشهاي متعددي جهت كاهش دنباله تاخير در مراكزداده در لايههاي مختلف از جمله پروتكلهاي لايه انتقال، مهاجرت ماشينهاي مجازي و ايجاد بهبودهاي در پشته سيستمعامل انجام شده است. برخي روشها توجه بسيار زيادي در به ميانگين تأخير داشتهاند و تعداد كمي به دنباله تأخير توجه كرده است. در اين پاياننامه يك سازوكار كمتأخير براي كاهش دنباله تأخير ارائه كرديم. توجه اصلي اين پاياننامه به هزارك بالاي تأخير است چرا كه اتفاقات با احتمال پايين در مقايس بالاي مراكز داده به اتفاقاتي با احتمال بالا تبديل ميشوند. ما پيادهسازي خود را در لايه هسته سيستمعامل انجام داده كه مكانيزم پيشنهادي تا ۵۰ درصد در ۹۹/۹۹ از حالت پيشفرض بهتر است. مزيت اصلي اين پاياننامه در مراكزداده با سختافزار معمولي خواهد و كارائي خاصي در خوشههاي كوچك مورد نظر نميباشد.
-
تاريخ ورود اطلاعات
1397/04/19
-
عنوان به انگليسي
A Low Latency Protocol for Massively Parallel Applications for Data Centers with Commodity Hardware
-
تاريخ بهره برداري
7/7/2018 12:00:00 AM
-
دانشجوي وارد كننده اطلاعات
سيدعليرضا ثنائي كوهرودي
-
چكيده به لاتين
Data center applications are emerging, and their stringent Quality of Service requirements make system and network designer to rethink the structure of the current system stack. Cloud providers should allocate computing resources based on Service Level Objective of each service defined by the end users. Workloads available in data centers are intrinsically mixed. Such idiosyncrasy rises the need to detect networking behavior of services running in the Cloud data centers. The most naïve classification of the network workloads in the data centers comprises latency-sensitive workloads, throughput sensitive workloads, and background workloads. We have observed that throughput sensitive workloads can impact latency sensitive workloads while they are sharing a particular resource at the same time. In this paper, we present a novel mechanism to mitigate the impact of the aforementioned workload types while demanding a shared resource. Commodity data center currently deploy multi-queue Network Interface Cards which has not been studied well so far. Multi-queue NIC increases the throughput of the network flows significantly. However, such design is oblivious to the latency of packets going back and forth in the context of different running flows. We first, propose a suitable queuing model to determine the maximum achievable performance. Then we implement a proof-of-concept Qdisc mechanism on the Kernel Network Stack, and we show that the new mechanism has less variability and less latency for latency sensitive packets, resulting in the higher predictability of the system. The proposed mechanism decreases the tail latency by up to 50% at 99.99%-ile. The real benefit of this mechanism is when we apply it to the data center applications and infrastructure.
-
لينک به اين مدرک :