* تلسکوپ های شکستی:
در تلسکوپ شکستی ، عدسی های شیئی معمولا از دو عدسی با جنس های متفاوت شیشه ای تشکیل شده اند. این قبیل عدسی ، آکرومات (عدسی ساده) نامیده می شود. منشور شیشه ای می تواند برای ساخت رنگین کمان از نور سفید استفاده شود. این به دلیل این است که شیشه، رنگهای نور را به درجات مختلف منحرف میکند.
زمانی که کسی تصویر واضح و تیزی (نوک دار) را از چیزی که به آن می نگرد، میخواهد داشته باشد، این تاثیر آزار دهنده می شود که بهنام خطای رنگی[1] (ابیراهی رنگ) شناخته می شود. آکرومات برای از بین بردن این تاثیر با استفاده از عدسی هایی از دو نوع شیشه طراحی شده است. یکی از عدسی ها کوژ است و جنس آن از شیشه ی گرد[2]است. عدسی دیگر کاو است و از جنس ظرف بلور، چیزی که اگر مقارن یک عدسی هم شکلش ساخته شود ، متراکم تر و انحراف نور در آن قوی تر از شیشه ی گرد است. اگرچه، همچنین این انحراف نور بیشتر بطور قوی صورت می گیرد اما همچنین اختلاف در چگونگی انحراف نورها با رنگهای مختلف ،حتی به نسبت افزایش مقدار زیادی از انحراف، بیشتر بیان شده است.
بنابراین ،می توان دو عدسی نزدیک به هم، یکی از شیشه ی بلوری و یکی از شیشه ی گرد ساخته شود که نور را به دو راه مخالف انحراف دهند. بنابراین این اختلاف در انحراف رنگها ، این تاثیرات را از بین می برد ، اما این عدسی هنوز خودش یک کار اساسی از انحراف نور گذرنده از میان آن در یک راستا را ایفا می کند.
هرچند ، به علت رفتار رنگهای مختلف نور در شیشه، یک قانون ساده ی ثابت را دنبال نمی کند، این حذف کردن میتواند تنها براین دو رنگ تحمیل شود. این هنوز یک پیشرفت بزرگ خارج از میدان عدسی است. اما بعضی اوقات یک پیشرفت بزرگتر مطلوب است و سپس یک عدسی از 3 عدسی شیئی برای تلسکوپهای کمی بیشتر گران قیمت طراحی شد.
عدسی شیئی روی تلسکوپ، به جای شبیه بودن به یک بزرگ کننده معمولی عدسی شیشه ای در شکل، بطور مساوی بر هر دو وجه برآمده است، معمولا یک شکل هلالی شده دارد ، و این قبیل عدسی، عدسی هلالی[3] نامیده می شوند.
این برای کم کرن انحراف دیگری، به نام خطای کروی [4] انجام شده است. انحراف نور با یک عدسی از قانونی ریاضی به نام قانون های شکست نور (قانون اسنل) [5] پیروی می کند ، و این ناشی از حقیقت نور گذرنده است که در شیشه آرامتر از آن چه در هوا می پیماید، سرعت دارد.
یک سطح کروی بطور متناسب برای ساخت زمان ساییدن عدسیها آسان است، اما این تنها یک شباهت زیاد، به شکلی است که سطح آن، مایل به متمرکز کرن پرتوهای وارد آینده به آن در تنها یک نقطه در تصویر است.
گاهی ، مخصوصا زمانی که خیلی از عدسی ها برای تثبیت هدف، با قالب گرفته شدن از پلاستیک ، ساخته می شوند، این بدترین هزینه برای ساخت قالب ضروری کامل تصویر به منظور ساختن سطح ایده آلی از انحراف نور در تصویر است. عدسی های شبیه این با نام عدسی های کروی نامیده می شوند.
گاهی حتی از این قبیل عدسی ها از جنس شیشه برای منظورهای خاصی ساخته می شوند ، اما این قبیل عدسی ها گران گرانهستند و بنابراین استفاده ی عمومی ندارند.
اصطلاح انحنادار، زیرا این به معنای «غیرکروی» است، گاهی دیگر انواع عدسی ها که ساختن آنها دشوار نیست، استفاده می شوند. آنها هنوز سطح خمیده دارند چیزی که دایره هایی به جای خم های پیچیده برای ساختن تصاویر کامل را نیاز می شود. برای نمونه، تو شاید عدسیهای استوانهای را که میتواند یک خط منتشره ی بلندتر را بسازد ، دیده باشی، حتی در میان آنها ، این را عریض تر نمی سازد. ازاین قبیل عدسی ها می توان ابزارهای نوری که یک چیز در یک جهت را انجام میدهند و اشیا مختلف دیگر ساخت.
یک کاربرد این عدسی های تغییر شکل دهنده[6] استفاده برای فشردن عرض تصویر روی پردهی فیلم (2.35 برابر به همان پهنای درازا) در قاب تصویر متحرک فیلم طراحی شده برای تصویر متحرک اصلی به نسبت صفحه که 1.33 برابر ، به همان پهنای درازا است ، شبیه تصویر روی تلویزیون تو است. (درواقع از زمان ادیسون تصویر متحرک استاندارد کمی برای ساختن فیلم های معمولی به نسبت صفحه 1.37 : 1 تغییر داده شد. هر چند فیلمها 2.35 :1 به نسبت صفحه هستند، در یک محدوده روی فیلم ضبط شده اند اما فیلم همچنین چندین آثار صدای بزرگ را به خوبی نگه داشت)
دیگر کاربرد آن عینک است. عدسی های عینک معمولا حلقوی هستند و نه کروی ، بطوریکه همچنین می تواند برای اشتباه روی هم رفته ی فاصله کانونی در عدسی های چشمی را تصحیح کند بهاستثنای اختلافها در فاصله کانونی در جهات گوناگون یا ناهم خوانیهای بینایی[7] .
معمولا عدسی های شیئی تلسکوپ در تلسکوپهای شکستی نجومی از ابزار کروی استفاده نمی کنند.
دو مثال برای تلسکوپ شکستی درمقابل تصویر شده است:
عدسی های باریک، خطای کروی کمتری از عدسی های کلفت دارند. حتی بعد از تصحیح برای رفع انحراف رنگی ، دو ابزار شیئی، مختصری کلفت تر از یک عدسی شامل تنها یک ابزار ساخته است، باز هم خطای کروی هنوز بطور مساعد ضعیف می باشد.
درست کردن عملی یک عدسی هلالی، آن را به حداقل می رساند، زیرا هنگامیکه روی هم رفته شکل عدسی ، سطح منحنی را دنبال می کند تا جایی که جریان پرتوهای نور منحرف میشود به جهت مطلوب جدید، هنگامی است که نگاه داشتن فضای یکنواخت بین آنها ، ازدست نرود. (البته، چرا آن باید یک اختلاف پیچیده بسازد.)
همچنین ممکن است توجه بشود که انحناها بر عدسی ها در شکل بالا، برای هدفهای تصویری اغراق شده است.
زمانی که در جلوی سطح شدیدا کوژ شده باشد، در فاصله کانون کوتاهتر تلسکوپ در قسمت پایین تر شکل نشان داده شده است ، تراز کردن نوار انحراف بین دو سطح هدایت کننده به سطح پشتی ،کوژ به جای کاو می شود، اما با انحنای سطح کمتر قوی. این تلسکوپ سومین ابزار را نیاز دارد ، همچنین ساخت از فلوئوریت کلسیم یا از گونه خاصی شیشه ، برای تنظیم کردن بیشتر سراسر آن را برای گرایش شیشه به منحرف ساختن نور آبی بیشتر قوی از نور زرد و نور زرد بیشتر قوی از نور قرمز. با دو ابزار ، یک عدسی آکروماتیک می تواند هر دو نور قرمز و آبی به کانون یکسان بیاورد اما نور زرد نیز به جای کانونی شدن در یک نقطه، به طول معمولی شیشه های گرد و بلوری است ، استفاده می شوند ، انحراف بیشتر قوی و زودتر به کانون آوردن.
استفاده از 3 ابزار و بطور بیشتر مهم ، ابزاری که شیشه معمولی نیستند، به 3 رنگ اجازه می دهد تا به کانون یکسانی آورده شوند، اما این نیز زمانی که کانونی شدن رنگها در بین داشتن اشتباه های خیلی کمتر، به خوبی صورت بگیرد ،منجرمی شود.
این گونه عدسی ها با توجه به بالا، آکروماتیک هستند. طراحی کردن عدسی آکروماتیک بدون استفاده از فلوئوریت یا مواد شبیه آن ممکن است. پلاستیک ها، از قبیل آکریلیک ، نیز با شیشه های نوری در دومین قابل فرق می کنند، گرچه آنها خیلی زیاد نسبت به دما از شیشه حساس هستند. همچنین، اینجا اختلاف بین شیشه های نوری معمولی که اجازه بدهد به آنها تا برای ساخت آکروماتیک، به خوبی استفاده شود، وجود دارد.
اچ دنیس تیلور[8] یک شی نوری–بصری در سال 1895 طراحی کرد چیزی که به فلوئوریت یا پودر گرد با هم نیاز نداشت.
زیرا فلوئوریت بیشتر بطور قوی، با شیشه های معمولی فرق می کند، هرچند یک آکروماتیکی که از فلوئوریت استفاده کند (دوباره یا شیشه ای که تقریبا شبیه آن باشد) به داشتن سطحی هرچند دارای انحنای قوی ، برای بدست آوردن فاصله کانونی مشابه، نیاز ندارد. ابزار مثبت و منفی عدسی، نیاز رسیدن کامل برای نزدیک شدن به حذف هر قدرت خارجی دیگری را، انجام نمی دهد. این تصمیمها انحراف دیگر عدسی را داراست. آکروماتیکِ اچ دنیس تیلور طراحی شد، برای استفاده در تلسکوپ f/16 ، فاصله ای که بیشتر مردم برای تلسکوپهای شکستی آکروماتیک نشان می دادند، چیزی که هنوز برای تصاویر عالی دردسترس قرار دارد. 3 ابزار آکروماتیک -با فلوئوریت- مشابه ابزار ، ازطرفی ، اجازه داد، تلسکوپی ساخته شود که تصاویر گیرا در فاصله کانونی f/6 را انتقال خواهد داد و دو ابزار عدسی ها که خطای کروی را با استفاده از فلوئوریت کم میکند – مشابه ابزار ، حتی اگر کسی درباره استفاده از اصطلاح «آکروماتیک» برای توضیح آن بپرسد، می تواند هنوز شبیه f/9 انجام دهد.
* تلسکوپهای نیتونی:
گونه دیگر معمول تلسکوپ، تلسکوپهای نیوتنی[9] هستند که معمولا از ابزار غیرکروی برای ساخت آنها استفاده می شود. در تلسکوپ نیوتنی جای عدسی شیئی با آینه کاو جایگزین می شود، چیزی که میتواند بزرگ کند و از تصاویر در بسیاری مشابه طرز عدسی کوژ باشد. یک آینه یدکی، آینه تخت کوچک که به نام مورب [10] نامیده می شود که برای خارج نگهداشتن سر شخص استفاده کننده از تلسکوپ از راه ورود نور می باشد.
این گونه تلسکوپ درمقابل تصویر شده است:
در تلسکوپ نیوتنی ،آینه که کار مشاهده را انجام می دهد به نام آینه نخست نامیده می شود و معمولا بصورت کروی جایگزین نمی شود، اما در طی سایش برای گرفتن ، بر روی شکل سهمیگون با دقت تنظیم می شود. (بنابراین مرحله ای به نام سهموی کردن آینه را تنظیم می کند.)
* تلسکوپهای ماکستوف:
نوع دیگر تلسکوپ با نام تلسکوپ ماکستوف[11] شناخته می شود. این تلسکوپ برای استفاده در بعضی تلسکوپهای خیلی گران با اندازه نسبتا کوچک، طراحی شده است. اخیرا ، بیشتر هزینه های قابل کنترل تلسکوپهایی ازاین گونه دارد فراهم می شود. این تلسکوپ شهرت خیلی خوبی برای کیفیت نوری خود دارد. در این تلسکوپ، آینه نخست با کروی جایگزین شده است. یک ابزار کلفت شیشه ای در جلوی تلسکوپ ، با خمیدگی مشابه بر جلو و عقب، به عنوان مصحح برای خطای کروی آینه رفتار می کند.
یه طور مخصوص درمقابل از تلسکوپ ماکستوف تصویر شده است. همچنین نقطه ی دایره ای در مرکز آن وجود دارد که در داخل آینه آن پوشانده شده است. این آینه نوری را که معمولا به کانون آورده می شود ، کمی فراتر از این بازتاب می کند و چون که این آینه سهمویگون است ، کانونی کردن بازتاب نور بازتاب شده در آن تاخیر دارد تا این نور به پشت تلسکوپ از میان سوراخی در مرکز آینه نخست بیرون برود.
تلاشی ،برای کشیدن شکل مقیاسی ساخته شده است، که بر طراحی حقیقی در دفتر دیمیتری ماکستوف[12] بنا شده است. هرچند فاصله از سطح آینه خارجی پشت تلسکوپ تا سطح صاف کانون در عدسی چشمی هنوز اغراق می شود.
این به خصوص از تلسکوپ ماکستوف-کاسگرین[13] عموما شناخته می شود به نام تلسکوپ گریگوری ماکستوف [14] ، زیرا جان گریگوری طراحی ای شامل نقطه ی نقره پوش کرد که ابتدا درغرب به خوبی شناخته شد. طرح نشان داده شد در تصویر بالا برای تلسکوپ f/9 است. تلسکوپهای ممتاز نوری کاملا با آنها ترکیب شده اند.
مشابه، اما کمتر گران و بنابراین محبوبیت مردمی این نوع تلسکوپ بیشتر است که اشمیت کاسگرین تلسکوپ[15] نامیده می شود. در آن، به جای یک قطعه ی کلفت شیشه ای با دو سطح کروی ،اصلاح با قطعه ی خیلی نازک شیشه ای ، تخت بر روی یکطرف و با سطح غیرکروی روی طرف دیگر میسر می شود.
اینجا ،آینه برای بازتاب نور به عقب از میان انتهای تلسکوپ به جلو وسیله بازگردانده می شود. اینگونه تلسکوپ عموما فاصله ی کانونی f/10 با 8 ثانیه (یا 220 میلیمتر) یا دهانه بزرگتر دارد. کسی با 4 ثانیه (یا110 میلیمتر) دهانه شاید ، کمی آهسته فاصله ی کانونی f/12 داشته باشد.
[1] chromatic aberration
[2] crown glass
[3] meniscus lens
[4] spherical aberration
[5] Snell's law n1/n2 = sin θ2/sin θ1
این قانون که توسط اسنل هلند و دکارت فرانسوی بطور جداگانه در قرن هفدهم کشف شد، در ایران طبق کتاب فیزیک سال اول دبیرستان به نام قانون های شکست نور شهرت دارد.
[6] anamorphic lense
[7] astigmatism
[8] H. Dennis Taylor
[9] Newtonian telescope
[10] diagonal
[11] Maksutov telescope
[12] Dimitri Maksutov
[13] Maksutov - Cassegrain
[14] Gregory Maksutov telescope
صرفنظر از این که کامپیوتر شما چگونه تولید شده است و یا نرم افزارهای نصب شده بر روی آن چگونه نوشته شده اند ، همواره احتمال بروز خطاء وجود داشته و ممکن است در آن لحظه امکان دسترسی به کارشناسان برای تشخیص خطاء و رفع مشکل وجود نداشته باشد . آشنائی با فرآیند عیب یابی و برخورد منطقی و مبتنی بر علم با این مقوله می تواند علاوه بر کاهش هزینه ها،صرفه جوئی در مهمترین منبع حیات بشری یعنی زمان را نیز بدنبال داشته باشد .
نرم افزارهای عیب یابی از جمله امکانات موجود و در عین حال بسیار مهم در این زمینه بوده که می توان از آنان به منظور عیب یابی یک کامپیوتر استفاده نمود .
● نرم افزارهای عیب یابی
برای عیب یابی کامپیوترهای شخصی تاکنون نرم افزارهای عیب یابی متفاوتی ارائه شده است . برخی از اینگونه نرم افزارها درون سخت افرار کامپیوترهای شخصی ، برخی دیگر درون تجهیزات جانبی ( نظیر کارت های الحاقی ) ، تعدادی دیگر به همراه سیستم عامل و برخی دیگر به عنوان محصولات نرم افزاری مجزائی عرضه شده اند .
) POST▪ اقتباس شده از:( Power On Self Test برنامه فوق پس از روشن کردن هر نوع کامپیوتر شخصی به صورت اتوماتیک اجراء می گردد . روتین های فوق درون حافظه ROM مادربرد و ROM موجود بر روی کارت های الحاقی ذخیره می گردند.
▪ نرم افزارهای عیب یابی ارائه شده توسط یک تولید کننده خاص : تعداد زیادی از تولید کنندگان معتبر کامپیوتر به منظور عیب یابی کامپیوترهای تولیدی خود ، اقدام به پیاده سازی و عرضه نرم افزارهای عیب یابی مختص سیستم های خود می نمایند .
▪ نرم افزارهای عیب یابی جانبی : به همراه تعداد زیادی از دستگاه های سخت افزاری ، نرم افزارهای عیب یابی خاصی ارائه می شود که می توان از آنان به منظور تست صحت عملکرد سخت افزار مورد نظر استفاده نمود . به عنوان نمونه آداپتورهای SCSI دارای یک برنامه عیب یابی می باشند که درون حافظه ROM BIOS کارت تعبیه و با فشردن کلیدهای ctrl+A در زمان راه اندازی سیستم، امکان دستیابی و استفاده از آن وجود خواهد داشت . کارت های صدا و شبکه نیز معمولا" به همراه یک برنامه عیب یابی ارائه می گردند که می توان از آنان درجهت تشخیص صحت عملکرد وظایف محوله هر کارت استفاده بعمل آورد .
▪ نرم افزارهای عیب یابی ارائه شده توسط سیستم عامل : به همراه سیستم های عامل (نظیر ویندوز) ، نرم افزارهای عیب یابی متعددی ارائه شده است که می توان از آنان به منظور شناسائی و مونیتورینگ کارآئی و عملکرد هر یک از عناصر سخت افزاری موجود در کامپیوتر استفاده نمود .
▪ نرم افزارهای عیب یابی آماده : تعدادی از تولید کنندگان نرم افزار به منظور عیب یابی کامپیوترهای شخصی اقدام به ارائه نرم افزارهای عیب یابی همه منظوره ای نموده اند. هر یک از نرم افزارهای فوق دارای پتانسیل های مختص به خود بوده که می توان با توجه به خواسته خود از آنان استفاده نمود .
● برنامه عیب یابی POST
زمانی که شرکت آی.بی. ام در سال ۱۹۸۱ اولین کامپیوترهای شخصی را ارائه نمود در آنان از ویژگی هائی استفاده شده بود که قبلا" مشابه آنان در سایر کامپیوترها به خدمت گرفته نشده بود . استفاده از برنامه ای موسوم به POST و Parity-checked حافظه ، نمونه هائی در این زمینه می باشند . پس از روشن کردن هر نوع کامپیوتری درابتدا و قبل از هر چیز دیگر ( نظیر استقرار سیستم عامل درون حافظه ) ، برنامه POST به منظور بررسی تست صحت عملکرد عناصر اصلی سخت افزار موجود در یک کامپیوتر اجراء خواهد شد .
POST ، مشتمل بر مجموعه ای از دستورالعمل های ذخیره شده در تراشه ROM-BIOS مادربرد است که مسئولیت تست تمامی عناصر اصلی در زمان روشن کردن کامپیوتر را برعهده دارد . برنامه فوق قبل از استقرار هرگونه نرم افزار در حافظه ، اجراء خواهد شد .
● برنامه POST چه چیزی را تست می نماید ؟
پس از روشن کردن کامپیوتر، برنامه POST به صورت اتوماتیک اجراء و مجموعه ای از تست های لازم به منظور بررسی صحت عملکرد عناصر اصلی در کامپیوتر را انجام می دهد. تست حافظه ، پردازنده ، حافظه ROM ، مدارات حمایتی برداصلی و تجهیزات جانبی نظیر اسلات های موجود بر روی برد اصلی ، نمونه هائی در این زمینه بوده که توسط برنامه POST تست خواهند شد . اندازه برنامه POST بسیار کم بوده و صرفا" قادر به تشخیص خطاهای بحرانی می باشد . در صورتی که پس از انجام هر یک از تست های انجام شده توسط برنامه POST مشکل خاصی تشخیص داده شود ، پیام های خطاء و یا هشداردهنده ای که نشاندهنده نوع خطاء است ، ارائه می گردد . پیامد وجود هر گونه خطاء در این مرحله ، توقف فرآیند معروف بوتینگ ( استقرار سیستم عامل درون حافظه ) خواهد بود . خطاهائی که توسط برنامه POST تشخیص داده می شوند را fatal error نیز می گویند چراکه عملا" توقف فرآیند بوتینگ را بدنبال خواهند داشت .
● نحوه نمایش نوع خطاء
ماحصل اجرای برنامه POST ، ارائه سه نوع پیام خروجی است : کدهای صوتی ، کدهای مبنای شانزده که برروی یک پورت I/O با یک آدرس خاص ارسال می گردد و پیام های مبتنی بر متن که بر روی نمایشگر نمایش داده می شوند . برای گزارش خطاهای تشخیص داده شده توسط برنامه POST از سه روش زیر استفاده می گردد :
▪ کدهای صوتی ( Beep Codes ) : کدهای فوق از طریق بلندگوی سیستم قابل شنیدن می باشند .
▪ کدهای Checkpoint : کدهای فوق ، کدهای مبنای شانزده checkpoint می باشند که برای یک پورت I/O با یک آدرس خاص ارسال می گردند . برای مشاهده کدهای فوق به یک برد خاص نصب شده در یکی از اسلات های ISA و یا PCI نیاز می باشد .
▪ پیام های نمایش داده شده بر روی نمایشگر : پیام های خطاء فوق صرفا" پس از مقداردهی اولیه آداپتور ویدئو قابل نمایش بر روی نمایشگر و استفاده خواهند بود .
● کدهای صوتی برنامه POST
از کدهای فوق صرفا" برای اعلام خطاهای بحرانی استفاده می گردد . خطاهای فوق در ابتدای فرآیند راه اندازی کامپیوتر و زمانی که هنوز کارت ویدئو و سایر سخت افزارها وارد مدار عملیاتی نشده اند ، محقق می گردند . با توجه به این که در این مقطع نمایشگر در دسترس نمی باشد ، کد مربوط به هر یک از خطاهای موجود به صورت مجموعه ای beep مشخص می گردد . در صورتی که ماحصل اجرای برنامه POST موفقیت آمیز بوده و مشکل خاصی وجود نداشته باشد ، پس از اتمام برنامه POST ، صرفا" یک صدای beep قابل شنیدن خواهد بود . در برخی سیستم ها ( نظیر کامپیوترهای کامپک ) پس از اتمام موفقیت آمیز برنامه POST دو مرتبه beep نواخته می شود . در صورتی که تست صحت عملکرد برخی عناصر با موفقیت توام نباشد ، برای اعلام نوع خطاء تعداد مشخصی beep که ممکن است کوتاه و یا بلند و یا ترکیبی از هر دو باشد ، نواخته می گردد .
● کدهای Checkpoint مربوط به برنامه POST
کدهای فوق ، اعداد مبنای شانزدهی می باشند که توسط روتین های برنامه POST بر روی یک پورت I/O با یک آدرس خاص ( مثلا" آدرس h ۸۰ نوشته می گردند . به کدهای فوق ، کدهای POST نیز گفته شده و امکان مشاهده و خواندن آنان صرفا" با نصب آدپتورهای خاصی در یکی از اسلات های سیستم ، فراهم می گردد . آداپتورهای فوق در ابتدا توسط تولید کنندگان مادر برد و به منظور تست سخت افزارهای تولیدی استفاده می گردید . در ادامه شرکت های متعددی ( نظیر میکرو ۲۰۰ و ۲۰۰۰ ، JDR Microdevice ) با تولید اینگونه کارت ها امکان استفاده از آنان را برای سایر تکنسین ها فراهم نمودند .
از کدهای POST Checkpoint می توان به منظور ردیابی وضعیت سیستم در زمان فرآیند بوتینگ از زمانی که سیستم روشن می گردد تا زمانی که برنامه bootstrap loader اجراء می گردد ( آغاز استقرار سیستم عامل در حافظه )، استفاده نمود .
پس از نصب یک POSTcode reade درون یکی از اسلات های مادربرد و همزمان با اجرای برنامه POST ، یک عدد مبنای شانزده بر روی نمایشگر کارت نمایش داده خواهد شد . در صورت توقف غیرمنتظره سیستم ، با استفاده از کد نمایش داده شده می توان خطاء موجود را تشخیص داد .
● پیام های نمایش داده شده بر روی نمایشگر
پیام های نمایش داده شده بر روی صفحه نمایشگر ، پیام های مختصری می ب
اشند که یک نوع خاص خطاء را گزارش می نمایند . پیام های فوق صرفا" پس از مقداردهی کارت ویدئو و نمایشگر قابل نمایش و استفاده خواهند بود .
طراحی نخستین نیروگاه تولید برق و اتومبیل بدون سوخت جهان در نیشابور
مدیرعامل و تیم فنی و مهندسی شرکت یکتا شرق نیشابور توانستند نخستین نیروگاه برق و اتومبیل طراحی کنند که از هیچگونه سوخت طبیعی و غیرطبیعی استفاده نمی کنند.به گزارش سرویس علم و فن آوری پایگاه اطلاع رسانی صبا به نقل از باشگاه خبرنگاران حسین غنمی با اشاره به ایجاد انگیزه دوچندان برای طراحی دستگاه های دیگر پس از طراحی موفق قطار بدون سوخت و چرخ افزود: بعد از موفقیت در طرح های فوق توانستیم با جابجایی جرم، نیروگاهی راطراحی کنیم که از هیچگونه نیروی طبیعی و غیرطبیعی بر روی زمین برای تولید برق استفاده نمی کند.
وی با اشاره به اینکه از این تکنولوژی در موتور خودرو نیز می توان استفاده کرد تصریح کرد: این نیروگاه پس از استارت با نیروهای مختلف از جمله باتری،علاوه بر تولید انرژی خود را تغذیه و مازاد انرژی را تولید می کند که در این حالت هیچ محدودیتی برای تولید انرژی ندارد و بسته به توان ژنراتور در هر رنجی در طی مدت زمان دلخواه انرژی تولید می کند.
غنمی با اشاره به اینکه قاعده نیوتن مبنی بر ثابت بودن جرم و انرژی در تمامی کتب فیزیک از ابتدای دوران راهنمایی تا دکترای فیزیک باید تغییر کند.
وی نداشتن آلودگی زیست محیطی، نیاز نداشتن به سوخت، امنیت 100 درصد، هزینه ساخت کمتر، هزینه تعمیر و نگهداری بسیار کم، فضای ساخت کم، میزان استهلاک بسیار کم، وزن کم، آلودگی صوتی بسیار کم، حذف هرگونه حمل و نقل سوخت، نیاز نداشتن به جایگاه سوخت، حذف هزینه سوخت و نبود زباله های اتمی را از مهمترین مزیت های موتور بدون سوخت خودرو و نیروگاه برق بدون سوخت عنوان کرد.
حسین غنمی گفت: همه چیز با توجه به قدرتی که خداوند به ما داده است امکان پذیر است.
یادآور می شود: راهسازی مدرن، مسکن و شهرسازی،دامداری و کشاورزی، انبوه سازی مسکن و سایر طرح های تفریحی و رفاهی به صورت مدرن از جمله طرح های مهم مدیرعامل شرکت ماشین سازی یکتا شرق نیشابور است که هم اکنون در حال تحقیقات تخصصی در ارتباط با تکمیل این طرح ها است.
Fluctuations in the flow of electrons signal the transition
from particle to wave behavior. Published in
revised form in Physics Today, May 2003, page 37.
Carlo Beenakker & Christian Sch¨onenberger
“The noise is the signal” was a saying of Rolf Landauer,
one of the founding fathers of mesoscopic physics. What
he meant is that fluctuations in time of a measurement
can be a source of information that is not present in the
time-averaged value. A physicist may delight in noise, in
a way reminiscent of figure 1.
Noise plays a uniquely informative role in connection
with the particle-wave duality. It was Albert Einstein
who first realized (in 1909) that electromagnetic fluctuations
are different if the energy is carried by waves or
by particles. The magnitude of energy fluctuations scales
linearly with the mean energy for classical waves, but it
scales with the square root of the mean energy for classical
particles. Since a photon is neither a classical wave
nor a classical particle, the linear and square-root contributions
coexist. Typically, the square-root (particle)
contribution dominates at optical frequencies, while the
linear (wave) contribution takes over at radio frequencies.
If Newton could have measured noise, he would
have been able to settle his dispute with Huygens on the
corpuscular nature of light — without actually needing
to observe an individual photon. Such is the power of
noise.
The diagnostic property of photon noise was further
developed in the 1960’s, when it was discovered that
fluctuations can tell the difference between the radiation
from a laser and from a black body: For a laser the wave
contribution to the fluctuations is entirely absent, while
it is merely small for a black body. Noise measurements
are now a routine technique in quantum optics and the
quantum mechanical theory of photon statistics (due to
Roy Glauber) is textbook material.
Since electrons share the particle-wave duality with
photons, one might expect fluctuations in the electrical
current to play a similar diagnostic role. Current fluctuations
due to the discreteness of the electrical charge are
known as “shot noise”. Although the first observations
of shot noise date from work in the 1920’s on vacuum
tubes, our quantum mechanical understanding of electronic
shot noise has progressed more slowly than for
photons. Much of the physical information it contains
has been appreciated only recently, from experiments on
nanoscale conductors.1
A substance that has a fixed chemical composition throughout is called a
pure substance.
are all pure substances.
A pure substance does not have to be of a single chemical element or
compound, however. A mixture of various chemical elements or compounds
also qualifies as a pure substance as long as the mixture is homogeneous.
Air, for example, is a mixture of several gases, but it is often considered to
be a pure substance because it has a uniform chemical composition
(Fig. 3–1). However, a mixture of oil and water is not a pure substance.
Since oil is not soluble in water, it will collect on top of the water, forming
two chemically dissimilar regions.
A mixture of two or more phases of a pure substance is still a pure substance
as long as the chemical composition of all phases is the same
(Fig. 3–2). A mixture of ice and liquid water, for example, is a pure substance
because both phases have the same chemical composition. A mixture
of liquid air and gaseous air, however, is not a pure substance since the
composition of liquid air is different from the composition of gaseous air,
and thus the mixture is no longer chemically homogeneous. This is due
to different components in air condensing at different temperatures at a
specified pressure.
Water, nitrogen, helium, and carbon dioxide, for example,The Greenhouse Effect:
Global Warming and Climate Change
You have probably noticed that when you leave your car under direct sunlight
on a sunny day, the interior of the car gets much warmer than the air
outside, and you may have wondered why the car acts like a heat trap. This
is because glass at thicknesses encountered in practice transmits over 90
percent of radiation in the visible range and is practically opaque (nontransparent)
to radiation in the longer wavelength infrared regions. Therefore,
glass allows the solar radiation to enter freely but blocks the infrared radiation
emitted by the interior surfaces. This causes a rise in the interior temperature
as a result of the thermal energy buildup in the car. This heating
effect is known as the
greenhouses.
The greenhouse effect is also experienced on a larger scale on earth. The
surface of the earth, which warms up during the day as a result of the
absorption of solar energy, cools down at night by radiating part of its
energy into deep space as infrared radiation. Carbon dioxide (CO
vapor, and trace amounts of some other gases such as methane and nitrogen
oxides act like a blanket and keep the earth warm at night by blocking the
heat radiated from the earth (Fig. 2–66). Therefore, they are called “greenhouse
gases,” with CO
taken out of this list since it comes down as rain or snow as part of the
water cycle and human activities in producing water (such as the burning of
fossil fuels) do not make much difference on its concentration in the atmosphere
(which is mostly due to evaporation from rivers, lakes, oceans, etc.).
CO
CO
The greenhouse effect makes life on earth possible by keeping the earth
warm (about 30°C warmer). However, excessive amounts of these gases disturb
the delicate balance by trapping too much energy, which causes the
average temperature of the earth to rise and the climate at some localities to
change. These undesirable consequences of the greenhouse effect are
referred to as
greenhouse effect, since it is utilized primarily in2), water2 being the primary component. Water vapor is usually2 is different, however, in that people’s activities do make a difference in2 concentration in the atmosphere.global warming or global climate change.The global climate change is due to the excessive use of fossil fuels such
as coal, petroleum products, and natural gas in electric power generation,
transportation, buildings, and manufacturing, and it has been a concern in
recent decades. In 1995, a total of 6.5 billion tons of carbon was released to
the atmosphere as CO
is about 360 ppm (or 0.36 percent). This is 20 percent higher than the level
a century ago, and it is projected to increase to over 700 ppm by the year
2100. Under normal conditions, vegetation consumes CO
2 and releases O2during the photosynthesis process, and thus keeps the CO
the atmosphere in check. A mature, growing tree consumes about 12 kg of
CO
deforestation and the huge increase in the CO
decades disturbed this balance.
In a 1995 report, the world’s leading climate scientists concluded that the
earth has already warmed about 0.5°C during the last century, and they estimate
that the earth’s temperature will rise another 2°C by the year 2100. A
rise of this magnitude is feared to cause severe changes in weather patterns
with storms and heavy rains and flooding at some parts and drought in others,
major floods due to the melting of ice at the poles, loss of wetlands and
coastal areas due to rising sea levels, variations in water supply, changes in
the ecosystem due to the inability of some animal and plant species to
adjust to the changes, increases in epidemic diseases due to the warmer
temperatures, and adverse side effects on human health and socioeconomic
conditions in some areas.
The seriousness of these threats has moved the United Nations to establish
a committee on climate change. A world summit in 1992 in Rio de
Janeiro, Brazil, attracted world attention to the problem. The agreement prepared
by the committee in 1992 to control greenhouse gas emissions was
signed by 162 nations. In the 1997 meeting in Kyoto (Japan), the world’s
industrialized countries adopted the Kyoto protocol and committed to
reduce their CO
the 1990 levels by 2008 to 2012. This can be done by increasing conservation
efforts and improving conversion efficiencies, while meeting new
energy demands by the use of renewable energy (such as hydroelectric,
solar, wind, and geothermal energy) rather than by fossil fuels.
The United States is the largest contributor of greenhouse gases, with over
5 tons of carbon emissions per person per year. A major source of greenhouse
gas emissions is transportation. Each liter of gasoline burned by a
vehicle produces about 2.5 kg of CO
produces about 20 lbm of CO
about 12,000 miles a year, and it consumes about 600 gallons of gasoline.
Therefore, a car emits about 12,000 lbm of CO
year, which is about four times the weight of a typical car (Fig. 2–67). This
and other emissions can be reduced significantly by buying an energyefficient
car that burns less fuel over the same distance, and by driving sensibly.
Saving fuel also saves money and the environment. For example,
choosing a vehicle that gets 30 rather than 20 miles per gallon will prevent
2 tons of CO
reducing the fuel cost by $400 per year (under average driving conditions of
12,000 miles a year and at a fuel cost of $2.00/gal).
It is clear from these discussions that considerable amounts of pollutants
are emitted as the chemical energy in fossil fuels is converted to thermal,
mechanical, or electrical energy via combustion, and thus power plants,
motor vehicles, and even stoves take the blame for air pollution. In contrast,
no pollution is emitted as electricity is converted to thermal, chemical, or
mechanical energy, and thus electric cars are often touted as “zero emission”
vehicles and their widespread use is seen by some as the ultimate
solution to the air pollution problem. It should be remembered, however,
that the electricity used by the electric cars is generated somewhere else
mostly by burning fuel and thus emitting pollution. Therefore, each time an
electric car consumes 1 kWh of electricity, it bears the responsibility for the
pollutions emitted as 1 kWh of electricity (plus the conversion and transmission
losses) is generated elsewhere. The electric cars can be claimed to be
zero emission vehicles only when the electricity they consume is generated
by emission-free renewable resources such as hydroelectric, solar, wind, and
geothermal energy (Fig. 2–68). Therefore, the use of renewable energy
should be encouraged worldwide, with incentives, as necessary, to make the
earth a better place to live in. The advancements in thermodynamics have
contributed greatly in recent decades to improve conversion efficiencies (in
some cases doubling them) and thus to reduce pollution. As individuals, we
can also help by practicing energy conservation measures and by making
energy efficiency a high priority in our purchases.
2 concentration in2 a year and exhales enough oxygen to support a family of four. However,2 production in recent2 and other greenhouse gas emissions by 5 percent below2 (or, each gallon of gasoline burned2). An average car in the United States is driven2 to the atmosphere a2 from being released to the atmosphere every year while2. The current concentration of CO2 in the atmosphereFossil fuels are mixtures of various chemicals, including small amounts of
sulfur. The sulfur in the fuel reacts with oxygen to form sulfur dioxide
(SO
power plants that burn high-sulfur coal. The Clean Air Act of 1970 has limited
the SO
2), which is an air pollutant. The main source of SO2 is the electric2 emissions severely, which forced the plants to install SO2scrubbers, to switch to low-sulfur coal, or to gasify the coal and recover the
sulfur. Motor vehicles also contribute to SO
diesel fuel also contain small amounts of sulfur. Volcanic eruptions and hot
springs also release sulfur oxides (the cause of the rotten egg smell).
The sulfur oxides and nitric oxides react with water vapor and other
chemicals high in the atmosphere in the presence of sunlight to form sulfuric
and nitric acids (Fig. 2–65). The acids formed usually dissolve in the
suspended water droplets in clouds or fog. These acid-laden droplets, which
can be as acidic as lemon juice, are washed from the air on to the soil by
rain or snow. This is known as
a certain amount of acid, but the amounts produced by the power plants
using inexpensive high-sulfur coal has exceeded this capability, and as a
result many lakes and rivers in industrial areas such as New York, Pennsylvania,
and Michigan have become too acidic for fish to grow. Forests in
those areas also experience a slow death due to absorbing the acids through
their leaves, needles, and roots. Even marble structures deteriorate due to
acid rain. The magnitude of the problem was not recognized until the early
1970s, and serious measures have been taken since then to reduce the sulfur
dioxide emissions drastically by installing scrubbers in plants and by desulfurizing
coal before combustion.
2 emissions since gasoline andacid rain. The soil is capable of neutralizingIf you live in a metropolitan area such as Los Angeles, you are probably
familiar with urban smog—the dark yellow or brown haze that builds up in
a large stagnant air mass and hangs over populated areas on calm hot summer
days.
contains numerous other chemicals, including carbon monoxide (CO), particulate
matter such as soot and dust, volatile organic compounds (VOCs)
such as benzene, butane, and other hydrocarbons. The harmful ground-level
ozone should not be confused with the useful ozone layer high in the
stratosphere that protects the earth from the sun’s harmful ultraviolet rays.
Ozone at ground level is a pollutant with several adverse health effects.
The primary source of both nitrogen oxides and hydrocarbons is the
motor vehicles. Hydrocarbons and nitrogen oxides react in the presence of
sunlight on hot calm days to form ground-level ozone, which is the primary Ozone and carbon dioxide are exchanged, causing eventual hardening of this soft and spongy tissue. It also causes shortness of breath, wheezing, fatigue, headaches, and nausea, and aggravates respiratory problems such as asthma. Every exposure to ozone does a little damage to the lungs, just like cigarette smoke, eventually reducing the individual’s lung capacity. Staying indoors and minimizing physical activity during heavy smog minimizes damage. Ozone also harms vegetation by damaging leaf tissues. To improve the air quality in areas with the worst ozone problems, reformulated gasoline (RFG) that contains at least 2 percent oxygen was introduced. The use of RFG has resulted in significant reduction in the emission of ozone and other pollutants, and its use is mandatory in many smog-prone areas. The other serious pollutant in smog is odorless, poisonous gas. It is mostly emitted by motor vehicles, and it can build to dangerous levels in areas with heavy congested traffic. It deprives the body’s organs from getting enough oxygen by binding with the red blood cells that would otherwise carry oxygen. At low levels, carbon monoxide decreases the amount of oxygen supplied to the brain and other organs and muscles, slows body reactions and reflexes, and impairs judgment. It poses a serious threat to people with heart disease because of the fragile condition of the circulatory system and to fetuses because of the oxygen needs of the developing brain. At high levels, it can be fatal, as evidenced by numerous deaths caused by cars that are warmed up in closed garages or by exhaust gases leaking into the cars. Smog also contains suspended particulate matter such as dust and soot emitted by vehicles and industrial facilities. Such particles irritate the eyes and the lungs since they may carry compounds such as acids and metals.
component of smog (Fig. 2–64). The smog formation usually peaks in late
afternoons when the temperatures are highest and there is plenty of sunlight.
Although ground-level smog and ozone form in urban areas with heavy traffic
or industry, the prevailing winds can transport them several hundred
miles to other cities. This shows that pollution knows of no boundaries, and
it is a global problem.
Smog is made up mostly of ground-level ozone (O3), but it alsoConsider a system not undergoing any change. At this point, all the properties
can be measured or calculated throughout the entire system, which
gives us a set of properties that completely describes the condition, or the
state,
fixed values. If the value of even one property changes, the state will change
to a different one. In Fig. 1–23 a system is shown at two different states.
Thermodynamics deals with
of the system. At a given state, all the properties of a system haveequilibrium states. The word equilibriumimplies a state of balance. In an equilibrium state there are no unbalanced
potentials (or driving forces) within the system. A system in equilibrium
experiences no changes when it is isolated from its surroundings.
There are many types of equilibrium, and a system is not in thermodynamic
equilibrium unless the conditions of all the relevant types of equilibrium
are satisfied. For example, a system is in
temperature is the same throughout the entire system, as shown in Fig.
1–24. That is, the system involves no temperature differential, which is the
driving force for heat flow.
and a system is in mechanical equilibrium if there is no change in pressure
at any point of the system with time. However, the pressure may vary within
the system with elevation as a result of gravitational effects. For example,
the higher pressure at a bottom layer is balanced by the extra weight it must
carry, and, therefore, there is no imbalance of forces. The variation of pressure
as a result of gravity in most thermodynamic systems is relatively small
and usually disregarded. If a system involves two phases, it is in
equilibrium
stays there. Finally, a system is in
composition does not change with time, that is, no chemical reactions occur.
A system will not be in equilibrium unless all the relevant equilibrium criteria
are satisfied.
thermal equilibrium if theMechanical equilibrium is related to pressure,phasewhen the mass of each phase reaches an equilibrium level andchemical equilibrium if its chemicalThermodynamics can be defined as the science of
has a feeling of what energy is, it is difficult to give a precise definition
for it. Energy can be viewed as the ability to cause changes.
The name
energy. Although everybodythermodynamics stems from the Greek words therme (heat) anddynamis
heat into power. Today the same name is broadly interpreted to include all
aspects of energy and energy transformations, including power generation,
refrigeration, and relationships among the properties of matter.
One of the most fundamental laws of nature is the
principle.
one form to another but the total amount of energy remains constant. That is,
energy cannot be created or destroyed. A rock falling off a cliff, for example,
picks up speed as a result of its potential energy being converted to kinetic
energy (Fig. 1–1). The conservation of energy principle also forms the backbone
of the diet industry: A person who has a greater energy input (food)
than energy output (exercise) will gain weight (store energy in the form of
fat), and a person who has a smaller energy input than output will lose
weight (Fig. 1–2). The change in the energy content of a body or any other
system is equal to the difference between the energy input and the energy
output, and the energy balance is expressed as
The
of energy principle, and it asserts that
property. The
(power), which is most descriptive of the early efforts to convertconservation of energyIt simply states that during an interaction, energy can change fromEin Eout E.first law of thermodynamics is simply an expression of the conservationenergy is a thermodynamicsecond law of thermodynamics asserts that energy has qualityas well as
decreasing quality of energy. For example, a cup of hot coffee left on a table
eventually cools, but a cup of cool coffee in the same room never gets hot
by itself (Fig. 1–3). The high-temperature energy of the coffee is degraded
(transformed into a less useful form at a lower temperature) once it is transferred
to the surrounding air.
Although the principles of thermodynamics have been in existence since
the creation of the universe, thermodynamics did not emerge as a science
until the construction of the first successful atmospheric steam engines in
England by Thomas Savery in 1697 and Thomas Newcomen in 1712. These
engines were very slow and inefficient, but they opened the way for the
development of a new science.
The first and second laws of thermodynamics emerged simultaneously in
the 1850s, primarily out of the works of William Rankine, Rudolph Clausius,
and Lord Kelvin (formerly William Thomson). The term
quantity, and actual processes occur in the direction ofthermodynamicswas first used in a publication by Lord Kelvin in 1849. The first
thermodynamic textbook was written in 1859 by William Rankine, a professor
at the University of Glasgow.
It is well-known that a substance consists of a large number of particles
called
behavior of these particles. For example, the pressure of a gas in a container
is the result of momentum transfer between the molecules and the walls of
the container. However, one does not need to know the behavior of the gas
molecules. The properties of the substance naturally depend on theparticles to determine the pressure in the container. It would be sufficient to
attach a pressure gage to the container. This macroscopic approach to the
study of thermodynamics that does not require a knowledge of the behavior
of individual particles is called
direct and easy way to the solution of engineering problems. A more elaborate
approach, based on the average behavior of large groups of individual
particles, is called
is rather involved and is used in this text only in the supporting role.
classical thermodynamics. It provides astatistical thermodynamics. This microscopic approach