ورود به سایت

فراموشی گذرواژه؟ عضویت

لینوکس lun

IMG10275638 - لینوکس lun

برنامه ریزی دقیق از فعالیتهای پایه ای ایست که پیش از هر پیاده سازی میبایست مورد توجه قرار گیرد.انتخاب سخت افزارها و نرم افزارهای مرتبط و متناسب با نیازمندیهای امروز و فردا معمولا کار سرراست و راحتی نیست و نیاز به تحلیل های مختلفی در چندین حوزه بعضا جدا از هم دارد.

در جریان فرایند برنامه ریزی لازم است تا به این سوالات پاسخ دهیم.
۱-احتیاجات و انتظاراتی که از SAN دارم چه هستند ؟
۲-به په میزان افزونگی/Redundancy نیاز دارم؟ مثلا آیا به off-site mirroring هم نیاز است؟
۳-چه میزان ملاحضات سازگاری مابین ادوات فعلی و جدید خواهم داشت؟ آیا SAN Switch های موجود از آرایه های جدید پشتیبانی میکنند؟
۴-آیا نیاز به Storage virtualization خواهم داشت ؟
۵-آیا از Unified storage خواهیم کرد؟
۶-از چه نوع سیستم عاملهای قرار است استفاده کنیم؟ درایورهای Multipathing مناسب را دارا هستند؟RDAC-DMMP,SDDPCM,MPIO
۷-چه نوع application های غالبی قرار است روی آن هاست شود؟ نیازمندیهای این نرم افزارها در چه حدی است؟
۸-معماری فیزیکی پیاده سازی به چه شکلی خواهد داشت Single fabric?Dual fabric? برنامه مدیریت مسیرهای چندگانه چگونه خواهند بود؟
۹-چه میزان performance نیاز خواهم داشت؟
۱۰-چه میزان بودجه برای آن تخصیص داد ه ایم و چگونه آنرا توزیع و اولویت بندی کنیم ؟

ما بزرگترین وارد کننده تجهیزات دیتاسنتری اچ پی در ایران هستیم

 اما داستان همین جا به ختم نرسید بنده شخصا خودم در مورد هاست های لینوکسی اطلاعات کامل ی ندارم وچون مشتریان ما اکثرا از هاست های ویندوزی استفاده میکنند دیگر در مورد لینوکس اطلاعات کافی نداشتم البته بحث نرم افزاری داستان مربوط به همکارم میشد که متاسفانه ایشون از کنار مسئله به راحتی گذاشته بودند و دقت لازم رو نکرده بودند .

خلاصه مجبور شدم یکروز اضافی نیز در خدمت دوستان در شهرستان مورد نظر بمانیم تا در مورد مشکل مورد نظر که اضافه کردن لون ساخته شده بر روی هاست اورکل لینوکس بود بیشتر بررسی کنم البته با کمی استرس.

دکتر اچ پی بزرگترین تامین کننده سروره ای اچ پی در ایران
دکتر اچ پی بزرگترین تامین کننده سرورهای اچ پی در ایران

بالاخره  با کمی سرچ در اینترنت و بررسی ساختار اضافه کردن لون های ساخته شده در محیط های لینوکسی تونستیم با دوست و همکار عزیزم این مشکل رو نیر حل کرده و تجربه ای  بسیار شیرین برای ما یاشد ،البته همه پروژه های درس های شیرینی هستند که باید از تمام انها استفاده کرد.

isco 3750 , cisco router 861 , sell cisco switches, cisco 3560 , cisco 3750 pricing , cisco systems , cisco , cisco 1841 routers , cisco 3750, فروش سیسکو , فروش Cisco , تجهیزات سیسکو , قیمت سیسکو, قیمت Cisco , تجهیزات Cisco , نمایندگی سیسکو, نمایندگی Cisco , مدلهای سیسکو , فروش روتر, روتر سیسکو, روتر Cisco , سوئیچ سیسکو, سوئیچ Cisco , فروش سوئیچ , قیمت سوئیچ ,فروش سوئیچ Cisco , نمایندگی فروش Cisco , فروش Cisco,فروش nas hp , فروش nas storage hp , فروش nas hp storage , فروش nas server , فروش nas , فروش san storage , فروش san , فایروال , یو تی ام , امنیت شبکه , دوره های شبکه , امنیت داده , فیری گیت , نمایندگی فروش فورتینت , ایجاد مراکز داده , مشاور امنیت شبکه , دیتا سنتر چیست , طراحی دیتا سنتر , سرور مجازی , دیتاسنتر, دیتا سنتر , سرور مجازی , امنیت در شبکه , امنیت شبکه های کامپیوتری , پروژه امنیت شبکه , شبکه , پشتیبانی شبکه , تجهیزات شبکه , مهندسی شبکه , راه اندازی
سرور های hp-بهترین قیمت سرور اچ پی

برای نصب اوراکل می توانیم از توزیع لینوکسی Oracle Linux 6.3 استفاده کنیم. برای نصب اوراکل نیاز به انجام برخی از تنظیمات در توزیع لینوکسی می باشد. در دیگر توزیع ها می توانید این تنظیمات را بصورت دستی اعمال کنید ولی در Oracle Linux 6 بسته oracle-rdbms-server-11gR2-preinstall وجود دارد که تمامی تنظیمات مورد نیاز را اعمال می کند. می توانید این بسته را در هنگام نصب ۳٫Oracle Linux 6 و یا پس از نصب آن توسط دستور yum نصب کنید. با فرض اینکه در حال حاظر نسخه Oracle Linux 6.3 روی سیستم نصب شده است- چگونگی نصب Oracle 11g 64 bit را آموزش خواهم داد. در ادامه پیش نیازهای نصب گفته شده است.

  • استفاده از نسخه ۶۴ بیتی ۳٫Oracle Linux 6
  • نصب برنامه oracle-rdbms-server-11gR2-preinstall
  • تنظیم متغیر های لازم برای نصب Oracle 11g 64 bit

این پروژه نیز مثل بقیه پروژها به خوبی به اتمام رسید و جای تشک از دوست بسیار عزیزم مهندس نوروزی که ما را در این پروژه حساس همراهی میکردند.

ملاحضات Zoning و مسیرهای IO چندگانه

برگرفته از لینک
در هنگامی که سرور از طریق Switched fabric یا بیش از یک HBA کارت با چند پورت فیزیکی متعلق به استوریج در تماس باشد نیاز به استفاده از درایوری است که قادر به شناسایی هر یک از این مسیرها و ارسال و دریافت ترافیک از طریق آنها باشد.آرایه های سری DS3000,4000,5000 هر یک دارای دو کنترلر با ماهیت پیش فرض Active/passive هستند این بدین معناست که مالکیت هر LUN در هر لحظه تنها در اختیار یکی از کنترلرها قرار دارد و کنترلر دوم نسبت به LUN مذبور در حالت Passive/standby قرار دارد تا زمان بروز Failure در کنترلر اول در این حالت مالکیت LUN مورد توسط کنترلر بعدی اخذ میشود در عین حال میدانیم که هر کنترلر نیز از طریق چند پورت و مسیر فیزیکی به فابریک اتصال درد و در صورت Fail شدن هر یک از مسیرها سایرین جایگزین آن خواهند شد. درچنین سناریوهایی روند طراحی Zone ها بایستی به گونه ای صورت پذیرد که هر یک از پورتهای HBA ها قادر به مشاهده هر دو کنترلر باشند تا در صورت بروز بحران قادر به برقراری ارتباط با کنترلر جایگزین باشند . در مثال زیر برای هر سرور نیاز به دو Zone داریم یکی از Port1 هر کارت به Port1,3 کنترلر A و Port1,3 کنترلر B و Zone دیگر نیز به همین شکل شامل Port2 از هر کارت به Port2,4 از کنترلرهای A,B

zoning%20plan - لینوکس lun

با این چینش در صورت بروز اختلال برای هر مسیری مسیر جایگزین دسترسی لازم به کنترلرها را به دست خواهد آورد بدون نیاز به انجام تغییری در نحوه LUN Masking در کنترلرها و جابجا کردن LUN ها مابین آنها
قاعده کلی : در سناریوهای Multipath ، برای هر پورت HBA یک Zone مجزا مشتمل بر آن پورت و پورتهای کنترلر ها ایجاد میکنیم.همینطور در هیچیک از Zoneها بیش از یک initiator قرار نمیدهیم.

مسیرهای IO چند گانه و درایورها

هنگامی که سروری دارای چند HBA کار ت میشود درایور MPIO-Multipath IO در هر لحظه مشغول چک کردن در دسترس بودن مسیرها می باشد و در صورت از دسترس خارج هر مسیر ،مسیر دیگری را به سرعت جایگزین قبلی میکند. به طور پیش فرض همه سیستم عاملها از دو مسیر منتهی به استوریج پشتیبانی میکنند این عدد در WIN 2003-2008 و لینوکس چهار و در aix بیش از چهار می باشد.از طرفی تعداد زیاد مسیرها نیز باعث ایجاد وقفه در فرایند تصحیح و جایگزینی مسیر میشود لذا انتخاب بهینه تعداد مسیر نقش نسبتا قابل اعتنایی در شرایط بحرانی ایفا میکند. توصیه میشود حداکثر از چهار میسر با اهداف توام تقسیم بار و افزایش دسترسی پذیری در معماریهای جدی استفاده شود .

تقسیم بار
Load balancing/Load sharing متدی است که طی آن درخواستهای IO مابین HBA کارتها و پورتهای آنها توزیع میشود شروع این حرکت از توزیع کردن LUN ها مابین کنترلرها آغاز میشود . تصویر زیر یک مکانیزم پایه Load sharing را نمایش می دهد. MPIO درایور تعداد مسیرهای منتهی به استوریج را شناسایی میکند سپس بر اساس متد Round robin بار را مابین ایندو توزیع میکند . این روش توجهی به workload هر یک از مسیرها ندارد و صرفا بر اساس یک مکانیزم چرخشی مابین پورتها اطلاعات را به سمت استوریج ارسال میکند.
ملاحضات پیش از پیکربندی دیسکها
همواره قبل از شروع استفاده از دیسکها بایستی یک یا چند آرایه Raid از آنها ساخت و پس از آن با ایجاد تعدادی درایو منطقی/پارتیشن آنها را در اختیار سرورها قرار داد . در یک پیاده سازی بی برنامه و بی هدف میتوان کل دیسکها را به یک آرایه Raid تخصیص داد و شروع به ساخت درایوهای منطقی و انتساب آن به سرورها کرد و در مدت زمانی نه چندان طولانی با تبعات زیر روبرو شد :
– در صورت جایگزین کردن دیسک Fail شده کل آرایه در فرایند Rebuilt تحت تاثیر قرار میگیرد و عملکرد عمومی آرایه تاساعتها دچار کندی و اختلال میشود
– به واسطه یکسان بودن بستر قرارگیری درایوهای منطقی ، هرگونه عملیات خواندن/نوشتن سنگین روی هر یک از آنها تاثیر خود را مستقیما بر روی کل آرایه و داریوهای دیگر نشان می دهد./

تعداد دیسکها :
در محیطهای دارای Transaction های بالا نکته مهمتر از ظرفیت ایجاد شده توسط آرایه ، تعداد دیسکهای شرکت کننده در Raid متناسب با Workload مورد نیاز سرورها هستند.در چنین کاربردهایی وجود تعداد بیشتر دیسکها در یک آرایه Raid موجبات افزایش عملکرد IOPS آرایه را فراهم میکند . وجود ۸ تا ۱۶ دیسک شرکت کننده در یک آرایه Raid5 متضمن ارائه بهترین عملکرد IOPS میباشد . باید دقت کرد تا از قرار دادن workload های متضاد نیازمند IOPS و Throughput بالا در یک آرایه خودداری شود مثال بارز آن یکجا قرار ندادن منابع سرویسهای OLAPو OLTP در یک آرایه است. OLTP نیازمند عملیات سریع insert-update-delete کوچک اما پر تعداد در هر ثانیه است اما کاربردهای OLAP نیازمند خواندن های سنگین و طولانی مدت از آرایه هستند بدهی است نوع دسترسی هر یک به آرایه در تضاد با دیگری میباشد و موجبات افت عملکرد عمومی را فراهم خواهند آورد. نکته دیگر در باب افزایش عمکلرد عمومی استوریج ها ساخت تعداد بیشتر آرایه Raid و توزیع آنها مابین کنترلرهای دستگاه(از طریق توزیع Lun ها) جهت تقسیم بار IO مابین آنهاست . به عنوان مثال یک پایگاه داده نیازمند ۱TB فضا را میتوان از طریق یک Raid5 مشتمل بر ۵ عدد دیسک ۳۰۰GB یا دو آرایه Raid5 توزیع شده روی دو کنترلر هر یک مشتمل بر ۵ دیسک ۱۴۶GB ایجاد کرد این روش به واسطه تعداد دیسکهای بیشتر و توزیع بار بهتر عملکرد قابل توجه تری تحت بارهای سنگین از خود نشان میدهد.
همین قاعده برای بارهای نیازمند Throughput بالا نیز برقرار است با این ملاحظه که در هنگام ساختن آرایه جهت Throughput بالاتر باید Segment size را مساوی یا مضربی از Block size مورد استفاده سرورهای استفاده کننده قرار داد تا با حداقل تعداد عملیات io بیشترین حجم داده منتقل شود.

Segment size
Segment size حداکثر مقدار داده خوانده/نوشته شده طی یک عملیات io از یک دیسک شرکت کننده در یک آرایه Raid است قبل از اینکه دیسکهای بعدی مورد خواندن/نوشتن قرار گیرند و برای به دست آوردن حداکثر عملکرد آرایه بایستی متناظر با هر نوع Workload و Block size سرورهای متناظر تعیین و تنظیم شود.برای عملیات IO کوچک و Transactional این عدد بزرگتر از BLock size انتخاب میشود و موجب میشود تا برای خواندن مقادیر کوچک داده دیسکهای بعدی مورد استفاده قرار نگیرند .
همین قاعده برای بارهای نیازمند Throughput بالا نیز برقرار است با این ملاحظه که در هنگام ساختن آرایه جهت Throughput بالاتر باید Segment size را مساوی یا مضربی از Block size مورد استفاده سرورهای استفاده کننده قرار داد تا با حداقل تعداد عملیات io بیشترین حجم داده منتقل شود.

Host spare
اگرچه استفاده از آرایه های Raid موجبات اعتماد پذیری بیشتر و بهتر جریان نگهداری از داده ها را فراهم میکنند اما میتوان با استفاده از تمهیدی دیگر به نام Hot spare این میزان را بالاتر برد . Hot spare یک دیسک آزاد و مستقل و خارج از هر پیکربندی Raid میباشد که به طور standby در یکی از Enclosure های استوریج منتظر fail شدن یکی از دیسکهای فعال در raid باقی میماند و به محض fail شدن آن دیسک به سرعت جایگزین آن میشود و به عضوی از آن آرایه بدل میشود . توصیه میشود در هر Enclosure و برای هر ۱۸-۲۰ دیسک یک Hotspare در نظر گرفته شود.
Host spare باید هم نوع دیسک fail شده باشد
سایز دیسک Hot spare باید بزرگتر یا مساوی دیک fail شده باشد .
دیسک Hotspare میتواند جایگزین دیسک fail شده هر یک از Raid های موجود در استوریج به شرط برآورده کردن مراتب فوق باشد.

دیدگاه ها

  • جلسه اول مجازی سازی - فروش سرور hp-قیمت -سرور-رم-هارد-hp server-HP آبان ۱۹, ۱۳۹۳ :: ۸:۵۵ ب.ظ

    […] که از یک سرور فیزیکی استفاده می کنید و سرور از کار می افتد، زمان […]

ارسال دیدگاه

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

perm_identity

textsms