فایل های قبل از چاپ اغلب بزرگ هستند .بنابر این ، این یک امر منطقی است که داده اغلب فشرده شده است .
تعداد کاملاً کمی الگوریتم وجود دارد که بتواند هم برای نوشتار و هم برای تصاویر استفاده کرد .
یک دانش ابتدایی درباره اینکه چگونه الگوریتم های متفاوت کار می کنند می تواند ارزنده باشد .
این اوراق یک دید کلی از الگوریتم های تراکم سازی گوناگون که در صنعت پیش چاپ استفاده می شود ارائه خواهد کرد .
آن به هیچ وجه یک دید کلی کامل از همه الگوریتم های موجود نیست .
انواع تراکم سازی ملاک عبارتند از : متراکم سازی CCITT گروه 3 و 4 ( هم اکنون در حال ساخت ) متراکم سازی Flate / deflate متراکم سازی JPEG متراکم سازی LZW متراکم RLE انواع الگوریتم های متراکم سازی الگوریتم های بالا می توانند به 2 بخش جداگانه تقسیم شوند آنها یا بی فایده هستند و یا بافایده .
الگوریتم های بی ضرر محتوای یک فایل را تغییر نمی دهند .
اگر شما یک فایل را متراکم سازید و آنگاه آن را گسترده کنید ، آن تغییر نکرده است .
الگوریتم های زیر بی ضرر هستند : متراکم سازی CCITT گروه 3 و 4 ( هم اکنون در حال ساخت ) متراکم سازی Flate / deflate متراکم سازی Huffman متراکم سازی LZW متراکم RLE الگوریتم های مضر نرخ تراکم بهتری را به وسیله خلاص شدن از برخی اطلاعات گزیده در فایل حاصل می آیند .
چنین الگوریتم هایی می توانند برای تصاویر یا فایل های صدا و نه برای داده های برنامه یا نوشتاری استفاده بشوند.
الگوریتم های زیر مضر هستند : متراکم سازی JPEG کدام الگوریتم بهترین است ؟
متاسفانه پاسخ قاطعی برای آن سوال وجود ندارد .
آن همه اش بستگی به نوع فایلی که باید فشرده بشود ، همچنین مفهوم واقعی فایل و این سوال که آیا شما مایل به پذیرش یک الگوریتم مضر برای آن فایل ویژه هستید یا نه ، دارد .
به عنوان یک قانون عمومی قبل از فشرده سازی افراد موارد زیر را در نظر می گیرند : نوشتار ارزش فشرده سازی ندارد برخی اوقات RLE به کار رفته است .
تصاویر تک رنگ LZW داده های سینمایی و هنری تک رنگ CCITT گروه 4 تصاویر فانتری LZW برای فایل هایی که جزئیات خیلی زیادی را دربرنمیگیرند.
تصاویر رنگی JPEG اگر متراکم سازی با ضرر مطلوب باشد .
کشیدن خط به وسیله برنامه های کاربردی حمایت نشده است .
پایان شماره 1 متراکم سازی Flate / deflate الگوریتم متراکم سازی بدون اتلاف deflate بر مبنای 2 الگوریتم متراکم سازی دیگر است : رمز کردن هاف من و متراکم سازی LZVV .
شما باید بدانید که این دو الگوریتم چگونه کار می کنند به منظور درک فشرده سازی Flate / deflate چگونه کار می کند .
deflate یک الگوریتم باهوش است که مبتنی با روشی که داده را به داده اصلی خودشان فشرده می کند .
3 روش فشرده سازی که موجود هستند : هیچ گاه فشرده نشده باشد .
این یک انتخاب هوشمند است برای داده ای که قبلاً فشرده بوده است می باشد .
داده ذخیره شده در این وضعیت به مقدار کمی گسترش خواهد یافت ، اما نه آنقدر که اگر قبلاً فشرده باشد و یکی از روشهای دیگر فشرده سازی بر روی آن انجام شده باشد توسعه نمی یابد .
فشرده سازی می کند ابتدا با lzvv و سپس با یک نسخه کمی اصلاح شده کد کردن هاف من .
شاخه هایی که برای فشرده سازی این وضعیت به وسیله مشخصه deflate خودش تعریف شده است ، بنابر این هیچ فضای اضافی برای ذخیره کردن این شاخه ها نیاز نداریم .
متراکم سازی می کند ابتدا با LZVV و سپس با نسخه کمی تغییر یافته از کد گذاری هاف من با شاخه هایی که فشرده ساز ایجاد می کند و در طول داده ذخیره می شود .
داده ها به بلوک ها شکسته می شود و هر بلوک یک روش واحد از متراکم فشرده سازی را به کار می برد .
اگر فشرده ساز بخواهد از ذخیره غیر فشرده به فشرده سازی با شاخه هایی ویژه تغییر وضعیت دهد یا به متراکم سازی با شاخه های هاف من مشخص کند یا به متراکم سازی با یک جفت متفاوت از شاخه های هاف من تغییر وضعیت دهد بلوک جاری باید پایان یابد و یک بلوک جدید شروع شده باشد .
من نظری ندارم .
برای من بفرستید اگر شما چیزی درباره نفع و ضررها می دانید متراکم سازی Flate / deflate در کجا به کار رفته اند .
من فقط از یک کاربرد قبل از فشرده سازی عمومی که مبتنی بر متراکم سازی Flate که Adobe Acrobat هست مطلع هستم .
متراکم سازی Flate یک خاصیت استاندارد از قالب فایل PDF که Acrobat می تواند به کار برد ، است .
فشرده سازی JPEG JPEG گرفته شده از گروه ماهر عکاسی است ، که یک کمیته استاندارد است .
همچنین الگوریتم متراکم سازی به وسیله این کمیته ایجاد شده است .
دو الگوریتم فشرده سازی JPEG وجود دارند : قدیمی ترین آن به عنوان JPEG درون این صفحه به سادگی به کار می رود .
الگوریتم جدید تر 2000 JPEG در پایین این صفحه مطرح شده است .
لطفاً توجه کنید که شما باید بین الگوریتم فشرده سازی JPEG – که درون این صفحه مطرح شده – و متناظر با آن قالب بندی فایل JFIF ( که خیلی از مردم آن را با نام فایل های JPEG می شناسند ) .
JPEG یک الگوریتم فشرده سازی پر اتلاف است که ایجاد شده است تا اندازه طبیعی فایل تصاویر رنگی شبیه عکاسی به اندازه ممکن بدون تاثیر بر کیفیت تصاویر همانگونه که به وسیله موتور درک انسانی تجربه شده کاهش دهد .
ما تغییرات کوچک در روشنایی را آسانتر از تغییرات کوچک در رنگ درک می کنیم .
آن ، این جنبه از آگاهی ماست که فشرده JPEG از آن بهره برده و تلاش می کنند تا اندازه فایل را کاهش دهد .
JPEG چگونه کار می کند .
JPEG : یک الگوریتم فشرده سازی مضر یا پر اتلاف است که برای کاهش سایز فایل از یک عکس طبیعی مانند رنگ های حقیقی و یا بیشتر از آن چیزی که امکان دارد ایجاد خواهد شد .
محتویات فایل تصویر بر اساس تشابه رنگ به پیکسل های کنار هم ذخیره می شود .
در این روش اطلاعات یک تصویر را بر اساس اهمیت آنها مرتب می کند و اطلاعاتی را که از اهمیت کمتری برخوردارند حذف می کنند .
در یک تصویر آن چه که از همه مهمتر است عبارتند از : شدت رنگ – شفافیت – خود رنگ – از آنجا که تنوع رنگ ها 16 میلیون رنگ است ، در نتیجه کار مشکل می شود .
شدت رنگ و شفافیت رنگ از 0 تا 225 است .
الگوریتم های JPEG در 4 مرحله عمل فشرده سازی را انجام می دهند : Initialication DCT Quan tization 4 Compresion الگوریتم JPEG ابتدا یک تصویر را به بلوک های جداگانه به اندازه 8*8 تقسیم می کند.
داده های تصویر به فضای رنگی نور و رنگ تبدیل می شود .
از آنجایی که روشنایی مهمتر از ترکیب رنگ در سیستم بصری ما می باشد .
الگوریتم بیشتر روشنایی را در فایل فشرده ، حفظ می کند .
قدم بعدی به کار بردن جدول DCT برای تامی بلاک ها است .
DCT یک مرحله پیچیده است که رنگ های واقعی داده را برای هر پیکسل به ازاء مقادیری که وابسته به میانگین کل ماتریس است را جایگزین می کند.
این عمل فایل را فشرده نمی کند بلکه به سادگی مقادیر پیکسل های 8*8 را با یک ماتریس 8*8 ضریب DCT عوض می کند .
cr = رنگ cb= روشنایی y = شدت رنگ DCT = 1 (N); IF i= For ci = I For ( j= ; j Q [ I ] [j ] = 1+ ( (1+I+j) * q ) 13 11 q 7 5 3 15 15 11 q 7 5 14 15 13 11 q 7 نتیجه محاسبه فرمول های ضرایب DCT این است که ضرایب کوچک تر کم اهمیت تر با صفر جایگزین می شوند و ضرایب بزرگتر از بین می روند .
این گرد کردن تصاویر است که باعث کاستی در کیفیت تصاویر می شود .
فشرده سازی Jpcg می تواند در انواع قالبهای زیر به کار رود .
فایل های EPS ، فایل های PDF – YFIF - EPS-DCS آخرین قدم این است که ضرایب را با به کاربردن روش Hu FFman یا رمزگذاری ریاضی فشرده کند .
که اغلب روش Hu Ffman به کار می رود .
الگوریتم های JPEG در 4 مرحله عمل متراکم سازی را انجام می دهد : اول ، الگوریتم های JPEG ابتدا یک تصویر را به بلوک های جداگانه 8*8 پیکسل تقسیم می کند .
از آنجایی که این قالب بر مبتنی بر درک نور و رنگ است ، آن مقادیر رنگی RGB یا CMYK را تحلیل نمی کند .
اما در عوض داده رنگی را به یک فضای رنگی نور و رنگ همانند YUV تبدیل می کند .
این کار به ما اجازه می دهد برای فشرده سازی جداگانه از این دو عامل از آنجایی که روشنایی مهمتر از ترکیب رنگ در سیستم بصری ما می باشد الگوریتم بیشتر روشنایی را درفایل فشرده شده می کند .
قدم بعدی در مرحله پردازه فشرده سازی به کار بردن یک کسینوس معکوس گسسته ( DCT ) برای تمام بلاک ها می باشد .
DCT یک مرحله پیچیده است که اجازه آزادی به هر یک از پیکسل های منحصر به فرد را می دهد .
رنگ های واقعی داده را برای هر پیکسل به ازاء مقادیری که وابسته به میانگین کل ماتریس که آنالیز تجزیه شده است جایگزین می کند .
این عمل فایل را فشرده نمی کند آن به سادگی مقادیر پیکسل های 8*8 را با یک ماتریس 8*8 از کسینوس معکوس گسسته ضرایب عوض می کند .
یک بار که این کار انجام شد ، متراکم سازی واقعی می تواند شروع شود .
ابتدا نرم افزار متراکم سازی نگاه می کند به کیفیت تصویر JPEG که کاربر در خواست کرده است ( کیفیت متوسط و … ) و 2 جدول دائمی یکی برای روشنایی و یکی برای ترکیب رنگ ایجاد می کند .
کی مرتبه که این جدول ها ساخته شدند ، ثابتها از آن برای ساختن کسینوس معکوس گسسته ضرایب استفاده کنند .
هر ضریب DCT به وسیله ثابت مربوط به آن در جدول کمی تقسیم می شود و به نزدیک ترین عدد صحیح به آن گرد می شود .
نتیجه محاسبه فرمولهای ضرایب DCT این است که ضرایب کوچک تر کم اهمیت تر با صفر جایگزین خواهند شد و ضرایب بزرگ تر دقت خود را از دست خواهند داد .
این گرد کردن ضرائب است که باعث کاستی در کیفیت تصاویر می شود .
داده نتیجه شده یک لیست از ضرایب DCT ساده شده است .
آخرین قدم در این مرحله این است که ضرایب را با به کاربردن یکی از دو روش هاف من یا طرح رمز کردن حسابی فشرده کند .
معمولاً رمز کردن هاف من به کار می رود .
این دومین متراکم سازی بی ضرر است که به کار برده می شود .
مزیتها با بکار بردن دو الگوریتم فشرده سازی بر روی یکدیگر JPEG به یک سیستمی فشرده سازی قابل توجهی می رود .
حتی برای قبل از فشرده سازی شما می توانید به آسانی یک فایل را به اندازه یک پنجم اندازه اصلی اش فشرده کنید .
برای انتشارات مبادله ایمیل در اینترنت حتی سرعت های بالا به میزان 20 به 1 قابل دسترسی است .
خارج کردن یک فایل JPEG از حالت فشرده در زبان چاپ سطح 2 و سطح 3 در سیستم های RIP ضمانت شده است .
این به آن معنا است که فایل های کوچک تر می تواند از شبکه به RI P فرستاده شود که ایستگاه فرستنده را سریعتر آزاد می کند ، اورهدروی چاپگر سرور را کوچک تر می کند و سرعت RIP را افزایش می دهد .
معایب : عیب تراکم سازی JPEG این است که الگوریتم فقط برای تصاویر یا صدا طراحی شده است .
( بخاطر آورید که P در JPEG مخفف فتوگرافیک است ) .
JPEG خودش را برای تصاویری با تغییرات سریع در صدا مناسب نمی داند .
برخی از انواع تصاویر وجود دارند که JPEG باید از آنها دوری کند : تصاویری که سایه به آنها اضافه شده است در برنامه های کاربردی همانند فتوشاپ .
نمودارها یا صفحات خیالی ترکیب هایی که در فتوشاپ ایجاد می شود .
تصاویری که شامل 256 یا کمتر رنگ هستند .
تصاویری که به وسیله نرم افزار CAD – CAM یا برنامه های کاربردی سه بعدی ؟؟؟
همانند مایایا برایس ایجاد شده است .
تصاویری که یک یا بیشتر از رنگ های پردازش را کم دارد .
برخی اوقات تصاویری ایجاد شده اند که برای مثال فقط صفحه سیاه و جوهر قرمز به کاربرده اند .
اگر چنین تصویری با استفاده از متراکم سازی JPEG فشرده شود شما ممکن است ببینید که محصول مصنوعی در صفحه زرد یا آبی تیره به وجود آمده باشد .
به علت خاصیت مضرش JPEG فقط باید در مرحله قبل از فشرده سازی به کار رود .
( مشهور شدن ، …….
زبان چاپ یا PDF ) .
درطی مراحل ایجاد شده وقتی که تصاویر هنوز ویرایش می شوند ، حاصل می شوند و رنگ آنها تنظیم می شود .
هر فرمان ذخیره جدید باعث کاستی بیشتر در کیفیت تصویر می شود وقتی که JPEG به کار رفته است .
من سطوح قدیمی تری از سیستم های RIP سطح 2 را دیده ام که در خارج کردن از حالت فشرده فایل JPEG اشتباه زیادی کرده اند .
به آسانی دوباره فرستادن فایل مشکل را حل کرده است .
متراکم سازی JPEG کجا به کار رفته است .
متراکم سازی JPEG می تواند در انواع قالب های فایل به کار رفته باشد .
فایل EPS فایل های EPS – DCS فایل های JPEG فایل های PDF تذکر ملاحظات : 2000 JPEG کمیته استاندارد ایزو یک نسخه جدید از فشرده سازی JPEG که 2000 JPEG نامیده می شود ایجاد کرده است .
این استاندارد قبلاً منتشر شده است در ( ژانویه 2001 ) اما هنوز استفاده وسیع پیدا نکرده است .
متراکم سازی 2000 JPEG ، 3 مسئله مهم را به استاندارد موجود اضافه کرده است .
آن یک الگوریتم مبتنی بر موج کوچک و الگوریتم های فشرده سازی JPEG موجود اضافه کرده است .
این الگوریتم انتقال موج کوچک پیشنهاد کیفیت بهبود یافته تصویر در سرعت های متراکم سازی خیلی بالا را می دهد .
2000 JPEG به اندازه 20% بهبود پیدا می کند در فشرده سازی قالب جاری JPEG آن همچنین یک وضعیت اختیاری متراکم سازی بی ضرر ارائه می کند .
فایل های بدون کاستی 2000 JPEG در حدود نصف اندازه اصلی خواهد بود .
متراکم سازی 2000 JPEG به صورت اصلی برای استفاده در اینترنت طرح ریزی شده است .
در نسب متراکم سازی زیر 25 به 1 الگوریتم مبنی بر موج کوچک جدید قالب های کمتری را ایجاد می کند ، اما با این وجود جزئیات تصاویر هم کمتر است .
که این به آن معنا است که آن هرگز واقع نشود .
اضافه شدن یک وضعیت فشرده سازی بدون ضرر ممکن است در آینده برای ما قابل توجه باشد .
قسمت اول 4: متراکم سازی هاف من الگوریتم متراکم سازی هاف من مطابق مخترعش – دیوید هاف من ( پروفسور سابق در MIT ) – نامیده شده است .
متراکم سازی هاف من یک الگوریتم متراکم سازی بی ضرر است که برای متراکم کردن نوشتار یا فایل های برنامه ایده آل است .
این احتمالاً علت اینکه چرا آن در متراکم سازی برنامه های بسیار به کار می رود را توجیه می کند .
چگونه متراکم سازی هاف من کار می کند .
متراکم سازی هاف من متعلق به یک خانواده از الگوریتم ها با اندازه کلمه کد متغیر است .
این به آن معنا است که فرد ( کارکترها و یک فایل نوشتاری ) با توالی بیتهایی که اندازه های مشخصی دارند عوض شده اند .
بنابر این نمادهایی که زیاد در یک فایل اتفاق می افتد یک توالی کوچک داده .
در صورتی که دیگرانی که به ندرت به کار رفته اند یک توالی بلند تر فراهم می کردند .
یک مثال علمی این قانون را به شما نشان خواهد داد : فرض کنید شما می خواهید جزء داده زیر را فشرده سازید : ACDABA از آنجایی که اینها 6 کاراکتر هستند این نوشتار 6 بایت یا 48 بیت طول دارد .
با کد گذاری هاف من ، فایل برای سمبلهای تکرار شده جستجو شده است .
( در این وضعیت کاراکتر A 3 بار اتفاق افتاده ) و آنگاه یک شاخه ساخته می شود که سمبلها را با توالیهای کوچک تر بیت ، جابه جا می کند .
در این وضعیت ویژه ، الگوریتم جدول جابه جایی زیر را به کار خواهد برد : A= 0 و B=10 و C=110 و D= 111 اگر این کلمه های کد شده برای فشرده سازی فایل به کار برده شود ، داده به شکل زیر به نظر می رسد : این به معنای این است که 11 بیت به جای 48 بیت به کار رفته اند .
01101110100 سمبلها – برای این فایل به خصوص یک نسبت فشرده 4-1 به کار رفته است .
کدکردن های هاف من می تواند به 2 روش بهینه شود : کد توافقی هاف من به گونه ای پویا کلمه های کد را مطابق تغییر احتمالات سمبلها تغییر می دهد .
متراکم سازی توسعه یافته هاف من می تواند سمبلهای گروهی سریعتر از سمبلهای واحد رمز کند .
فواید و معایب این الگوریتم متراکم سازی به گونه ای عمده در متراکم سازی فایل های برنامه یا نوشتار موثر است .
تصاویری همانند آنهایی که اغلب استفاده می شوند در پیش فشرده سازی می شوند به وسیله دیگر الگوریتم های فشرده سازی بهتر به کار می روند .
فشرده سازی هاف من در کجا استفاده شده است .
فشرده سازی هاف من به طور عمده در متراکم سازی برنامه هایی همانند PKZIP , IHA , gz , ZOO, arg .
آن همچنین درون متراکم سازی MPEG , gpEG به کار رفته است .
سمبلها را بر اساس نزولی دفعات مشخص می کند .
یعنی سمبلی که تعداد دفعات تکرارش بیشتر است ابتدای لیست قرار می گیرد و بعد رشته را به دو قسمت تقسیم می کند به طوری که هر قسمت تقریباً نصف تواتر را دارا باشد و به صورت یک درخت دو دویی کدهای آن را به هر حرف اختصاص می دهد .
نکته : 1- سمبل یا کاراکتری که بیشترین تعداد دفعات تکرار را دارا است کوچکترین کد را در اختیار خود قرار می دهد .
2- هیچ کاراکتری نمی توان یافت که کد آن قسمتی از کد یک کاراکتر دیگر باشد .
در درخت دو دویی در برگها قرار دارند .
نحوه decode کردن به روش Hu Ffman : از اولین بیت شروع می کنیم و در کد حروف به دنبال کدی می گردیم که سمت چپ ترین بیت آن بیت مورد نظر باشد و به ترتیب بیتها را جستجو می کنیم.
برای کاراکترهای دیگر و هر کدی که با بیت مطابقت داشت با بیت دیگر مقایسه نمی کنیم .
قسمت 5 : متراکم سازی LZW LZW گرفته شده است از آبراهام لمپل ، ژاکوپ ، زیو وتری ولچ ، دانشمندانی که این الگوریتم متراکم سازی را ایجاد کردند .
این یک الگوریتم متراکم سازی بی ضرر مبتنی بر دیگشنری است .
الگوریتم های مبتنی بر دیگشنری یک فایل را به طور اجمالی مرور می کند .
برای توالی از داده که بیشتر از یک بار اتفاق افتاده باشد .
این توالی ها سپس در یک دیگشنری ذخیره شده است و درون فایل های فشرده شده مراجع هر جایی که داده تکراری اتفاق افتاده قرار داده شده اند .
لمپل وزیو یک سری از ورق هایی که الگوریتم های فشرده سازی مختلف را توصیف می کرد منتشر کردند .
اولین الگوریتم آنها در 1977 انتشار یافت .
بنابر این نام آن LZVV است .
این الگوریتم فشرده سازی درون دیگشنری را نگهداری می کند داده هایش .
در نظر بگیرید شما می خواهید رشته متنی زیر را فشرده کنید : the Quick brown fox jumps over the lazy dog .
کلمه the دو بار در فایل واقع شده است .
بنابر این داده می تواند همانند این فشرده شود .
the Quick brown fox jumps over که در آن در 1978 لمپل وزیو دومین مقاله خود را پیرامون یک الگوریتم مشابه که هم اکنون منتسب به 78 LZ است .
این الگوریتم یک دیگشنری جداگانه را نگهداری می کند .
در نظر بگیرید که شما یک بار دیگر می خواهید رشته متنی زیر را فشرده سازید : the Quick brown fox jumps over the lazy dog .
کلمه the دو بار در این فایل واقع شده است .
بنابر این این رشته در یک ایندکس که به فایل فشرده شده اضافه شده است به شکل * شده است .
آنگاه داده به این شکل به نظر می رسد .
* Quick brown fox jumps over * lazy dog .
LZW چگونه کار می کند .
در 1984 ، تریولچ روی یک الگوریتم متراکم سازی برای کنترل کننده های دیسک با کارآیی بالا کار می کرد .
او یک الگوریتم نسبتاً ساده ایجاد کرد که بر اساس الگوریتم 78 LZ پایه ریزی شده بود و هم اکنون LZW خوانده می شود .
متراکم سازی LZW رشته های کاراکتر را با کدهای واحد عوض می کند .
آن هیچ گونه تجزیه و تحلیلی از نوشته وارد شده ارائه نمی دهد .
در عوض آن فقط اضافه می کند بر رشته جدید از کاراکترها را که به یک جدول رشته ها شبیه است اضافه می کند .
متراکم سازی هنگامی رخ می دهد که یک کد واحد خروجی باشد ، به جای یک رشته از کاراکترها کدی که الگوریتم LZW خارج می کند می تواند در هر اندازه اختیاری باشد .
اما باید بیتهای بیشتری نسبت به یک کاراکتر واحد باشد .
ابتدا 256 کد ( وقتی کاراکترهای 8 بیتی استفاده می کنیم ) .به صورت پیش فرض به دسته کاراکترهای استاندارد اختصاص داده شده اند .
کدهای باقی مانده به رشته هایی به عنوان پیشرفت الگوریتم اختصاص داده می شود .
مثال بالا همان گونه که نشان داده شده با 12 بیت کد اجرا می شود.
این به معنای این است که کدهای 0 تا 225 به بایتهای منحصر به فرد مربوط می شود .
در صورتی که کدهای 256 تا 4095 به زیر رشته ها مربوط می شود .
فواید و مطالب ها متراکم سازی LZW بهترین استفاده را دارد .
برای فایل هایی که در بر می گیرند تعداد خیلی زیادی از داده های تکراری این اغلب در مورد متن را تصاویر تک رنگ است .
فایل هایی که فشرده شده اند اما شامل هیچ گونه اطلاعات تکراری در کل نیستند حتی می توانند بزرگتر شوند ؟
متراکم سازی LZW سریع است .
حق الامتیازها باید پرداخت شوند تا الگوریتم های متراکم سازی LZW درون برنامه های کاربردی استفاده شوند .
متراکم سازی LZW در کجا به کار رفته است .
متراکم سازی LZW می تواند در قالب های گوناگون فایلها استفاده بشود .
فایل های TIFF فایل های GIF تذکر: برخی از نسخه های متراکم سازی LZW حق چاپ انحصاری دارند .
از این رو سالهای متمادی صاحبان آنها ( یونیسیس ) حق امتیازهایی از هر کمپانی استفاده کننده الگوریتم آنها تقاضا می کند .
این به صورتی جدی مانع از معروفیت متراکم سازی LZW شده است و در اجرای طولانی ما احتمالاً خواهیم دید که آن با الگوریتم های کم ارزشتر ( بخوانید : حجاتی ) جابه جا شده است .
به عنوان یک کاربر حرفه ای شما نباید نگران باشید زیرا فقط سازندگان نرم افزار مجبور به پرداخت قیمت های اجازه نامه هستند .
اما در نهایت شما پرداخت می کنید همچنین زیرا همه قیمت ها باید تحت پوشش قیمت نرم افزار قرار گیرد .
قسمت 6 : فشرده سازی RLE RLE گرفته شده است از RLE نماینده کد کردن طول اجرا است .
آن یک الگوریتم بی ضرر است که فقط قسمتهای متراکم سازی مناسب را برای انواع خاص داده ها ارائه می کند .
RLE چگونه کار می کند .
RLE احتمالاً راحت ترین الگوریتم فشرده سازی موجود است .
آن یک ردیف داده ها با مقدار مساوی درون یک فایل را با و یک مقدار واحد جایگزین می کند .
رشته داده زیر را در نظر بگیرید ( 17 بایت ) که می خواهد فشرده بشود .
ABBBBBBBBB CDEEEEF با بکار بردن متراکم سازی RLE ، فایل متراکم شده 100 بایت فضا اشغال می کند و می تواند شبیه به این باشد .
A * 8B CD * 4F همانگونه که شما می توانید ببینید ، رشته های تکراری از داده به وسیله یک کاراکتر کنترلی ( * ) که به دنبال آن تعداد کاراکترهای تکراری و خود کاراکتر می آید عوض شده اند .
کاراکتر کنترلی ثابت نیست و می تواند از یک پیاده سازی تا پیاده سازی دیگر اختلاف داشته باشد .
اگر کاراکتر کنترلی خودش در فایل ظاهر شود ، آنگاه یک کاراکتر اضافی کد شده است .
همچنین شما می توانید ببینید ، رمز کردن RLE فقط هنگامی موثر است که توالی ای از 4 یا 5 کاراکتر تکراری وجود داشته باشد زیرا 3 کاراکتر برای RLE استفاده شده است.
همچنین کد گذاری می کند 2 کاراکتر تکراری .
حتی می تواند باعث افزایش اندازه فایل بشود .
مهم است که بدانیم طرحهای RLE رمزگذاری مختلفی وجود دارند .
مثال بالا فقط به این علت بکار برده شده است تا اصل اساسی رمز کردن RLE را نشان دهد.
برخی اوقات پیاده سازی RLE مناسب برای نوعی از داده است که متراکم می شود.
فواید و مصائب این الگوریتم بسیار آسان اجرا می شود و نیازمند توان زیادی از CPU نیست .
متراکم سازی RLE فقط برای فایل هایی که شامل داده های تکراری زیادی هستند موثر است .
اینها می توانند فایلهای نوشتاری باشند .
اگر شامل فضاهای زیادی برای شناسایی داده باشند .
اما برای تصاویر دورنگی که شامل مناطق سیاه یا سفید بزرگی هستند به مراتب مناسبتر است .
کامپیوتری که تصاویر رنگی ایجاد می کنند .
(برای مثال : طراحیهای معماری ) همچنین می تواند برای متراکم سازی نسبتاً خوب باشد .
متراکم سازی RLE می تواند در قالبهای فایلهای زیر بکار رود .
فایل های TIFF فایل های PDF خانم شهرکی 1311q753151511q7514151311q7 FSAMBOL3A1B1C1D CDBA33