دانش آموزی - 313

راهنمای سایت

سایت اقدام پژوهی -  گزارش تخصصی و فایل های مورد نیاز فرهنگیان

1 -با اطمینان خرید کنید ، پشتیبان سایت همیشه در خدمت شما می باشد .فایل ها بعد از خرید بصورت ورد و قابل ویرایش به دست شما خواهد رسید. پشتیبانی : بااسمس و واتساپ: 09159886819  -  صارمی

2- شما با هر کارت بانکی عضو شتاب (همه کارت های عضو شتاب ) و داشتن رمز دوم کارت خود و cvv2  و تاریخ انقاضاکارت ، می توانید بصورت آنلاین از سامانه پرداخت بانکی  (که کاملا مطمئن و محافظت شده می باشد ) خرید نمائید .

3 - درهنگام خرید اگر ایمیل ندارید ، در قسمت ایمیل ، ایمیل http://up.asemankafinet.ir/view/2488784/email.png  را بنویسید.

http://up.asemankafinet.ir/view/2518890/%D8%B1%D8%A7%D9%87%D9%86%D9%85%D8%A7%DB%8C%20%D8%AE%D8%B1%DB%8C%D8%AF%20%D8%A2%D9%86%D9%84%D8%A7%DB%8C%D9%86.jpghttp://up.asemankafinet.ir/view/2518891/%D8%B1%D8%A7%D9%87%D9%86%D9%85%D8%A7%DB%8C%20%D8%AE%D8%B1%DB%8C%D8%AF%20%DA%A9%D8%A7%D8%B1%D8%AA%20%D8%A8%D9%87%20%DA%A9%D8%A7%D8%B1%D8%AA.jpg

لیست گزارش تخصصی   لیست اقدام پژوهی     لیست کلیه طرح درس ها

پشتیبانی سایت

در صورت هر گونه مشکل در دریافت فایل بعد از خرید به شماره 09159886819 در شاد ، تلگرام و یا نرم افزار ایتا  پیام بدهید
آیدی ما در نرم افزار شاد : @asemankafinet

تحقیق درباره Excel

بازديد: 737

 

فصل اول:

توانايي كار با محيط صفحه گسترده

Excel

رئوس مطالب

1)     آشنايي باتعريف صفحه گسترده

2)     آشنايي با انواع صفحه گسترده

3)     آشنايي با كاربرد صفحه گسترده

4)     آشنايي با اصلاحات اوليه صفحه گسترده

آشنايي با تعريف صفحه گسترده

صفحه گسترده (spread sheet) به صفحه اي كه جدول بندي شده است اطلاق مي‌شود به طوري كه هر خانه يا سل cell) ) ياسلول نيز به آن گفته مي‌شود داراي مختصات منحصر به فردي مي‌باشد برنامه صفحه گسترده،برنامه اي كاربردي است كه هر فايل آن از چندين صفحه جدول بندي شده تشكيل شده است و برنامه صفحه گسترده معمولا براي بودجه بندي ها ، پيش بيني ها و كارهاي مربوط به امور مالي به كار مي‌رود .

برنامه صفحه گسترده ، معمولا قابليت هاي گرافيكي را براي خروجي و انواع متعددي گزينه هاي قالب بندي براي متن ، مقادير عددي و ويژگي هاي گراف و نمودار را فراهم مي‌سازد .

آشنايي با انواع صفحه گسترده ها.

نرم افزارهاي معروف كه از صفحه گسترده استفاده مي‌كنند عبارتند از :

1- كواتروپرو (Quatropro)

2- لوتوس (lotus))

 3-اكسل (Excel)

 4-Ms Project

5-spss ا.

آشنايي با كاربرد هاي صفحه گسترده

به طور كلي برخي از كاربردهاي صفحه گسترده به صورت زير است

-          پيش بيني هاي تجاري با استفاده از داده هاي موجود

-          خود كار كردن كارهاي مالي و حسابداري .

-          مديريت طلبهاي مالي.

نحوه اجرا وخروج از Excel

-          براي اجراي نرم افزار اكسل از منوي Start بر روي ََAll Programs كليك كرده و از منوي ظاهر شده بر روي آيكن ميان بر Microsoft Excel كليك نماييد.

-          براي خروج از اكسل از منوي File گزينه Exit را كليك نماييد و يا اينكه و بر روي دكمه Close در پنجره اصلي اكسل كليك كنيد.

آشنايي با اصطلاحات اوليه صفحه گسترده:

پس از اجراي برنامه ، قسمت هاي زير در پنجره آن مشاهده مي‌شود.

1)     نوار عنوان (Title Bar)

2)     نوار منو (Menu bar)

3)     نوار ابزار (Formatinge Standard)

4)     نوار وضعيت (Status Bar)

5)     نوار نمودار (Chart Bar)

6)     نوار ترسيمات

7)     نوار فرمول (Formula Bar)

8)     نوار انتخاب صفحه كاري

9)     نوار Task Pan

نمايش يا عدم نمايش نوار ابزارها :

براي ظاهر يا ناپديد كردن نوار ابزار مورد نظر به ترتيب زير عمل نماييد.

1)     از منوي View بر روي Toolbars اشاره كنيد تا زير گزينه هاي آن باز شود .

2)     همانطور كه در شكل ملاحظه مي‌كنيد ليست نوار هاي ابزار در اين منو قرار دارد . شما مي‌توانيد با كليك بر روي نام نوار ابزار مورد نظر آن را ظاهر يا ناپديد كنيد. نوار ابزاري كه در حال نمايش است در كنار نام آن تيك قرار دارد . با كليك روي نام تيك دار، تيك بر داشته و نوار ابزار ناپديد مي‌شود.

فصل دوم

رئوس مطالب

-          اصول انتخاب سطر و ستون

-          اصول پاك كردن يك يا چند سلول

-          اصول لغو آخرين فرمان

-          اصول اجراي مجدد آخرين فرمان

-          اصول نسخه برداري از محتواي يك يا چند خانه

-          اصول اضافه كردن سطر و ستون

-          اصول پر كردن خودكار چند خانه

انتخاب يك ستون با سطر

براي انتخاب يك سطر ستون كافي است بر روي آن نام آن سطر يا ستون كليك نماييد

شناسايي اصول پاك كردن محتواي يك يا چند خانه

براي اين منظور به ترتيب زير عمل نماييد

1-خانه يا خانه هاي مورد نظر را انتخاب كنيد

2-از منو Edit. بر روي گزينه Clear  اشاره كنيد تازير گزينه هاي آن ظاهر شود

3-از گزينه هاي Clear  مي‌توانيد يكي از آن را كه مورد نظر شماست انتخاب كنيد

گزينه هاي دستور clear  به صورت زير مي‌باشد

AII.. باعث پاك شدن محتوا، فرمتها و يادادشتهاي خانه ها مي‌شود.

Fromats: تنها باعث پاك شدن قالب يا فرمت خانه هاي انتخاب شده مي‌گردد.

Cotetnts: تنها باعث پاك شدن محتواي خانه هاي انتخاب شده مي‌شود و قالب يا يادداشت خانه ها را در صورت وجود پاك نمي‌كند (Delete=)

Coments : باعث حذف يادداشت خانه هاي انتخاب شده مي‌گردد.

شناسايي اصول حذف يك يا چند خانه

1)     خانه يا خانه هاي مورد نظر را انتخاب كنيد.

2)     بر روي محدوده انتخاب شده كليك راست نموده و از منوي ميان بر بر روي گزينه Delete كليك نماييد تا زير گزينه هاي آن مطابق شكل زير ظاهر شود.

لغو آخرين فرمان انجام شده (undo)

گاهي ممكن است فرماني اشتباه اجرا شود وبخواهيم اثر آن را خنثي كنيم.

فرمان undo در فرم افزار اكسل، لغو آخرين عمل انجام شده را امكان پذير مي‌سازد براي اجراي دستور undo سه روش وجود دارد.

الف) كيك بر روي گزينه undo از منوي Edit

ب) فشردن همزمان كليدهاي ctrl+z

ج) كليك بر روي دكمه undo از نوار ابزار استاندارد.

اجراي مجدد آخرين فرمان (Redo)

توسط فرمان Repeat از منوي Edit، آخرين فرماني كه انجام داده ايم رامي‌توانيم تكرار كنيم. ضمنا اگر توسط گزينه undo اثر انجام عملي را خنثي كرده باشيم گزينه Repeat به صورت اتوماتيك تبديل به Redo مي‌شود كه باكليك بر روي آن، عمل undo خنثي مي‌شود. براي اجراي دستور
 
redo (       ) سه روش وجود دارد .

الف) كليك بر روي گزينه redoاز منوي Edit

ب) فشردن كليدهاي ميان بر ctrl+y

ج) كليك بر روي دكمه resdo از نوار ابزار استاندارد.

شناسايي اصول نسخه برداري از محتواي يك يا چند خانه:

براي انجام عمل كپي يا نسخه برداري از يك يا چند خانه به يكي از روشهاي زير عمل نماييد.

روش اول: عمل كپي بااستفاده از منوي Edit

1)     خانه هاي مورد نظر را انتخاب كنيد.

2)     از منوي Edit گزينه كپي را كليك نمائيد.

3)     بر روي خانه اي كه مي‌خواهيد كپي از آنجا شروع شود كليك نمائيد.

4)     از منوي Edit بر روي گزينه past كليك كنيد.

روش دوم: عمل كپي با استفاده از Drop&Dray

1)     خانه يا خانه هاي مورد نظر را انتخاب كنيد.

2)     به مرز خانه هاي انتخاب شده اشاره گر ماوس را ببريد تا اشاره گر ماوس تبديل به پيكاني كه در نوك آن فلش چهار سويه قرار دارد شود.

3)     كليد ctrl را پايئن نگه داشته و ماوس را به محل مورد نظر درگ نماييد.

شناسايي اصول اضافه سطر و ستون:

براي درج سطر يا ستون به روش زير عمل كنيد.

1)     سطر يا ستوني كه مي‌خواهيد قبل از آن سطر يا ستوني خالي اضافه شود انتخاب نمائيد.

2)     از منوي insert، براي درج سطر بر روي گزينه Rows و براي درج ستون بر روي گزينه column كليك نمائيد.

شناسايي اصول پر كردن خود كار چند خانه

فرض كنيد مي‌خواهيد در خانه هاي B1 و B12 اعداد زوج از 2 تا 24 را وارد نمائيد براي انجام اين كار به روش زير عمل نمائيد.

1)     در خانه B1 كليك كرده و عدد 2 را وارد كرده و Enter كنيد.

2)     در خانه B2 و عدد 4 را وارد كرده و Enter كنيد.

3)     خانه هاي B1  و B2 را انتخاب كنيد و اشاره گر ماوس را به گوشه پائين سمت راست سل B2 و بر روي مربع كوچك ببريد تا اشاره گر ماوس تبديل به + شود.

4)     كليد سمت چپ ماوس راپائين نگه داشته و آن را تا خانه B12 درگ نمائيد.

بدين ترتيب اعداد 2، 4 تا 24 درخانه هاي B1 تا B12 به صورت اتوماتيك نوشته مي‌شوند.

 

فصل سوم

نمودارها

رئوس مطالب

1)     آشنايي با كاربرد نمودارها

2)     نمودارهاي ستوني و ميله اي

3)     نمودار خطي

4)     نمودار دايره اي

آشنايي با كاربرد نمودارها:

به طور كلي، نمودارها روشي براي نمايش اطلاعات و تجزيه و تحليل داده ها مي‌باشند.

نمودارهاي ستوني و ميله اي:

نمودارهاي ستوني و ميلهاي براي مقايسه مقادير در مقاطع زماني مناسب هستند. براي ديدن نمودارهاي ستوني موجود دراكسل از منوي Insert بر روي گزينه chart كليك نماييد و TypesStandard و از ليستchart type نوع Cloumn را انتخاب نمائيد.

نمودار خطي:

نمودارهاي خطي براي نشان دادن بهبود وضعيت در فاصله زماني معين و مساوي مناسب هستند.

براي ديدن زير مجموعه نمودارهاي خطي اكسل از منوي insert  گزينه chart را كليك كنيد واز ليست chart type نوع نمودار Bar را كليك كنيد.

نمودار دايره اي :

نمودار دايره اي براي يك سري از داده ها (مثلا هزينه) رسم مي‌شود.

براي ديدن زير مجموعه نمودارهاي دايره اي از كادر محاوره اي chart wizard و از ليست chart type نوع pie را انتخاب نماييد.

آشنايي با اصطلاحات مربوط به يك نمودار.

الف) محدوده داده ها (Data Range) : داده هايي كه مي‌خواهيد نموداري را بر اساس آن رسم كنيد در يك محدوده قراردادند كه آن را محدوده داده ها مي‌نامند.

ب) سري داده ها (sata series): به گروهي از داده ها كه سطر يا ستوني از دده ها را تشكيل مي‌دهند سري داده ها گفته مي‌شود. عناوين سري داده ها در راهنماي نقشه ديده مي‌شود.

ج) عنوان نمودار (chart title): هر نموداري مي‌تواند يك عنوان داشته باشد. به طور مثال (نمودار سه ماهه اول سال 85)

د) محور طبقه بندي (category ayis): محوري كه طبقه بندي داده ها روي آن انجام مي‌شود محور طبقه بندي ناميده مي‌شود. به طور مثال در (آمار سه ماهه اول سال 85) طبقه بندي بر اساس نام ماهها مي‌تواند صورت گيرد.

ه)راهنماي نقشه (Legend): در هر نمودار، سريها با رنگهاي مختلف نشان داده مي‌شوند براي تشخيص سريها، از راهنماي نقشه استفاده مي‌شود.

و) خطوط شبكه (gridlines): در نمودار مي‌توان تعيين كرد كه خطوط شبكه اي، عمودي يا افقي قرار داشته باشند يا نه.


 

 

منابع:

1)     كتاب رايانه كار صفحه گستر Excel xp

2)     تاليف: غلامرضا خليق

3)     كتاب آموزش گام به گام Excel 2000

مترجم: مهندس عليرضا پارساي


فهرست مطالب:

فصل اول:1

توانايي كار با محيط صفحه گستر1

Excel1

آشنايي با تعريف صفحه گسترده. 1

آشنايي با انواع صفحه گسترده ها.2

آشنايي با كاربرد هاي صفحه گسترده. 2

نحوه اجرا وخروج از Excel2

نمايش يا عدم نمايش نوار ابزارها :3

فصل دوم. 4

رئوس مطالب.. 4

انتخاب يك ستون با سطر4

شناسايي اصول پاك كردن محتواي يك يا چند خانه. 4

شناسايي اصول حذف يك يا چند خانه. 5

لغو آخرين فرمان انجام شده (undo)5

اجراي مجدد آخرين فرمان (Redo)6

شناسايي اصول نسخه برداري از محتواي يك يا چند خانه:6

روش اول: عمل كپي بااستفاده از منوي Edit7

روش دوم: عمل كپي با استفاده از Drop&Dray. 7

شناسايي اصول اضافه سطر و ستون:7

شناسايي اصول پر كردن خود كار چند خانه. 8

فصل سوم. 8

نمودارها8

رئوس مطالب.. 8

آشنايي با كاربرد نمودارها:9

نمودارهاي ستوني و ميله اي:9

نمودار خطي:9

نمودار دايره اي :9

منابع:11

 


دانشگاه آزاد اسلامي

(دانشكده كشاورزي)

 

پروژه Excel

تحت نظر استاد گرامي:

جناب آقاي سروري

 

 

 

تهيه كننده:

 سيده مژگان حسيني

 

 

بهار 85

منبع : سايت علمی و پژوهشي آسمان--صفحه اینستاگرام ما را دنبال کنید
اين مطلب در تاريخ: یکشنبه 02 فروردین 1394 ساعت: 11:41 منتشر شده است
برچسب ها : ,,,
نظرات(0)

تحقیق درباره DVD

بازديد: 365

 

آشنايي كامل با DVD

 

 با دو فرمت رقابتي سوپر ديسك(SD ) و CD چند رسانه ايي (MMCD ) در سال 1994 پا به عرصه وجود گذاشت.DVD هاي حالايي نتيجه تلفيق هر 2 تاي اينا اما با يك استاندارد واحد هستن. ويديو DVD در سال 1997 پا به عرصه گذاشت و تقريبا ميشه گفت نسبت به ديگر فن آوري ها مصرف كننده رشدش خيلي خوب بوده. DVD صوتي،در سال 2000 توليد شد و از تكميل DVD تصويري با فرمت بالا در ارتباط با صداي 2 بعدي همراه با گزينه هاي ديگه خبر داد. آشنايي با DVD : DVD -ROM ها براي اصولا كارهاي جند رسانه ايي (Multi Media ) و بازي ها هستن.DVD هاي صوتي ،همون طوري كه ميدونيد چون داراي كيفيت خيلي بالاتري هستن مورد كاربريشون:آهنگ ها،صداهاي 2 بعدي و تصاوير ديجيتالي و گرافيكيه.نكته قابل توجهشون اينه كه همگي از يك سيستم مشترك به نام UDF استفاده ميكنن. اشكال DVD : DVD ها در ابتدا فقط با نام ديسك تصويري ديجيتال ناميده شد ولي اكنون با عنوان ديسك چند منظوره يا فقط DVD ناميده ميشن.DVD ها جزو خانواده چند كاربردي فرمت هاي ديسك هاي نوري،فقط خواندني،كاربردهاي قابل ضبط و قابل بازنويسي هستن.قابليت سازگاري مشخصات پيشين با رسانه CD كنوني،تمام سخت افزارهاي DVD ،CD ها و CD-ROM هاي صوتي رو ميتونن پخش كنن واين مساله ميتونه به عنوان يك برتري خيلي جالب نسبت به CD ها به حساب بياد چون تمامي سخت افزارها نمي تونن CD-R يا CD-RW ها رو پخش كنن. ٿرمت هاي DVD ها به اين صورتن:DVD تصويري ،DVD-ROM ،DVD صوتي،DVD-RAM ،DVD-RW ،DVD-R هستند. خوب حالا ميرسيم به بحث اصلي: DVD-Rom ها مدتيه كه وارد عرصه رقابت شدن و با امكانات بيشترشون و با سازگاري كه با انواع سي دي و قابليت خوندن DVD ، ان جوري كه به نظر ميرسه دارن بازار CD-Rom ها را در دست مي گيرن. در حال حاضر هم ديگه كمتر شركت معتبري رو شما ميتونين بيابين كه CD-Rom ، توليد كنه(البته توي كشور ما هنوز اون جوري جا نيوفتاده)،پس در مورد خريد و تهيه CD-Rom ها دقت كنين.از ديد فني و قدرت ذخيره سازي، يك DVD با قابليت ذخيره سازي 17 گيگابايت(در انواع دو لايه و دو رويه) ظرفيتي برابر 26 سي دي 665 مگابايتي رو داره. ضمنا اطلاعات روي DVD هم مانند CD ها روي يك شيار (پيت) حلزوني رايت مي شه.هر چه طول پيت كوچكتر و قطاع پرشده تر باشه،ظرفيت بيشتر است(حداقل طول پيت روي DVD برابر 0/4 ميكرومتر و روي CD برابر 0/9 ميكرومتره.)همچنين فاصله قطاع ها روي DVD برابر 0/74 ميكرومتره و روي CD ها برابر 1/6 ميكرومتره.در DVD به همين ترتيب طول موج پرتو ليزر از 780 نانو به 650 تا 635 نانو متر كاهش پيدا كرده و ميشه گفت كه سرعت خوندن ديسك گردان هاي DVD از ديسك گردان هاي CD بيشتره .مثلا سرعت يكي از مدلهاي توشيبا بدون سر و صداي عجيب و غريب به 26 مي رسه.در عين حال ديسك گردان هاي DVD-Rom كنوني، متعلق به نسل سوم هستن و ميتونن اونها رو بدون هيچ مشكلي تحت ويندوز نصب كرد.اين دستگاه ها DVD را باسرعت 4x يا 5x مي خونن.ضمنا سرعت خوندن CD در آنها به 24x تا 32x مي رسه. از طرف ديگه هم جايگزين شدن دستگاههاي نسل سوم با نسل دوم، كارايي اونها رو تا حد زيادي بالا برده. سرعت انتقال داده در محصولات نسل دوم 2700 كيلو بايت بر ثانيه است،در حاليكه در محصولات جديد به 6000 كيلوبايت بر ثانيه مي رسه.همين وضعيت در خوندن CD ها نيز صادقه:سرعت خوندن در مدلهاي نسل دومي 10 تا 12 برابره، در حاليكه در محصولات جديد به 6 برابر هم رسيده. در ضمن سرعت انتقال داده در ديسك گردانهاي مربوط به نسل سوم،حداكثر 6 مگابايت برثانيه است،پس يك رابط E-IDE با سرعت انتقال حداكثر 16 مگابايت بر ثانيه، براي اتصال اونها كافيه.البته برخي از توليدكنندگان اين دستگاهها رو با رابط SCSI ساختن. اگه ميخواين يك DVD-Rom بخريد به اين نكته ها توجه كنين:به كيفيت مكانيزم تصحيح خطا اهميت بدين.با وجود اين مكانيزم،برخي خطاهاي ناشي از خراش هاي روي سطح ديسك و لكه هايي مثله اثر انگشت،تصحيح مي شن.چنين چيزي از چند كيلوبايت سرعت بيشتر، بهتره اين طور نيست؟ همچنين به ميزان امكاناتي كه نياز دارين فكر كنين.بعضي از كليدها كه براي ساده سازي پخش CD هاي صوتي در نظر گرفته شدن،فقط روي گروهي از ديسك گردانها وجود داره. متعلقات و لوازم جانبي كه همراه با ديسك گردان عرضه مي شن،بسته به مارك اونها تفاوت داره،ولي معمولا يك دفترچه راهنما،چند پيچ براي نصب و كابلهاي داده و صوتي همراه ديسك گردان وجود داره.ضمنا بر سازگاري دستگاه هم توجه لازم رو داشته باشين و در موقع خريد اين نكته رو بگيد كه مايليد دستگاه شما با فرمت هاي قبلي مثله CD و... و تا حد ممكن با فرمت هاي موجود هماهنگي و سازگاري لازم رو داشته باشه.البته به تجربه ثابت شده كه ديسك گردانهاي كنوني از نسل سوم، در اين زمينه از اطمينان خوبي برخوردارن. اما برسيم به موضوع كدينگ ها: فيلم هاي DVD براي مبارزه با كپي هاي غير قانوني،به شش روش مختلف در هنگام ضبط كدينگ (Coding ) مي شن.از طرف ديگه دستگاه پخش كننده فيلم هاي DVD هم هنگام ساخته شدن توسط شركت،به نرم افزارهاي كدينگ خاص منطقه فروش مجهز مي شن.پس با اين تفاصيل فقط DVD Player هاي مخصوص مناطق ميتونن DVD هاي خاص اون منطقه جغرافيايي رو پخش كنن.البته اين موضوع براي كمپاني هاي مالك اينگونه فيلمها و محصولات منفعت زيادي داشته و در عين حال براي مصرف كننده،مشكلاتي را به همراه مي آره،از جمله عدم تطابق دستگاه با فيلم مورد نظرتونه. نحوه تقسيم بندي بين المللي كد گذاري DVD ها بر حسب مناطق جهاني اين طوريه : 1)آمريكاي شمالي و كانادا 2)اروپا،آفريقاي جنوبي و ژاپن 3)آسياي جنوب شرقي 4)استراليا،آمريكاي مركزي و جنوبي 5)آفريقا،آسيا و قسمتي از اروپاي شرقي 6)جمهوري خلق چين يه نكته:در زمان خريدن فيلم هاي DVD در هر نقطه از دنيا،حتما بايد به پشت جعبه آن به دقت نگاه كنين و طبق شماره اي كه درج شده ،مطمئن بشيد كه اين DVD با Player شما سازگاره.ايران در منطقه 5 قرار داره و تمام DVD هاي مخصوص اين منطقه رو توسط دستگاههاي پخش كننده در ايران قابل پخشه. حالا زياد نگران نشين يه خبر خوش هم براتون دارم،توي يه مجله خوندم كه جديدا اكثر DVD Player ها كه دارن توليد ميشن ،توليد كنندگانشون با توجه به مشكلاتي كه بهشون اشاره كردم ديويدي هايي رو توليد كردن و ميكنند كه از همه كدينگ ها پشتيباني ميكنن.پس ديگه مشكلي نيست. حالا اگه با استفاده از كامپيوتر مي خواي به استفاده از ديويدي بپردازين كه ديگه اصلا مشكلي نيست.براي پخش همه نوع ديويدي به اين سايت:www.inmatrix.com برين و نرم افزار DVDGenie رو دانلود كنين وقتي كه داونلودش كردين ميتونين از همه نوع ديويدي استفاده كنين،ضمنا ميتونين از نرم افزارهاي Win DVD و Power DVD هم استٿاده كنين

نوشته شده توسط admin در تاريخ 25/11/1383 ساعت : 07:09

آشنايي كامل با DVD

 

 با دو فرمت رقابتي سوپر ديسك(SD ) و CD چند رسانه ايي (MMCD ) در سال 1994 پا به عرصه وجود گذاشت.DVD هاي حالايي نتيجه تلفيق هر 2 تاي اينا اما با يك استاندارد واحد هستن. ويديو DVD در سال 1997 پا به عرصه گذاشت و تقريبا ميشه گفت نسبت به ديگر فن آوري ها مصرف كننده رشدش خيلي خوب بوده. DVD صوتي،در سال 2000 توليد شد و از تكميل DVD تصويري با فرمت بالا در ارتباط با صداي 2 بعدي همراه با گزينه هاي ديگه خبر داد. آشنايي با DVD : DVD -ROM ها براي اصولا كارهاي جند رسانه ايي (Multi Media ) و بازي ها هستن.DVD هاي صوتي ،همون طوري كه ميدونيد چون داراي كيفيت خيلي بالاتري هستن مورد كاربريشون:آهنگ ها،صداهاي 2 بعدي و تصاوير ديجيتالي و گرافيكيه.نكته قابل توجهشون اينه كه همگي از يك سيستم مشترك به نام UDF استفاده ميكنن. اشكال DVD : DVD ها در ابتدا فقط با نام ديسك تصويري ديجيتال ناميده شد ولي اكنون با عنوان ديسك چند منظوره يا فقط DVD ناميده ميشن.DVD ها جزو خانواده چند كاربردي فرمت هاي ديسك هاي نوري،فقط خواندني،كاربردهاي قابل ضبط و قابل بازنويسي هستن.قابليت سازگاري مشخصات پيشين با رسانه CD كنوني،تمام سخت اٿزارهاي DVD ،CD ها و CD-ROM هاي صوتي رو ميتونن پخش كنن واين مساله ميتونه به عنوان يك برتري خيلي جالب نسبت به CD ها به حساب بياد چون تمامي سخت افزارها نمي تونن CD-R يا CD-RW ها رو پخش كنن. فرمت هاي DVD ها به اين صورتن:DVD تصويري ،DVD-ROM ،DVD صوتي،DVD-RAM ،DVD-RW ،DVD-R هستند. خوب حالا ميرسيم به بحث اصلي: DVD-Rom ها مدتيه كه وارد عرصه رقابت شدن و با امكانات بيشترشون و با سازگاري كه با انواع سي دي و قابليت خوندن DVD ، ان جوري كه به نظر ميرسه دارن بازار CD-Rom ها را در دست مي گيرن. در حال حاضر هم ديگه كمتر شركت معتبري رو شما ميتونين بيابين كه CD-Rom ، توليد كنه(البته توي كشور ما هنوز اون جوري جا نيوفتاده)،پس در مورد خريد و تهيه CD-Rom ها دقت كنين.از ديد فني و قدرت ذخيره سازي، يك DVD با قابليت ذخيره سازي 17 گيگابايت(در انواع دو لايه و دو رويه) ظرفيتي برابر 26 سي دي 665 مگابايتي رو داره. ضمنا اطلاعات روي DVD هم مانند CD ها روي يك شيار (پيت) حلزوني رايت مي شه.هر چه طول پيت كوچكتر و قطاع پرشده تر باشه،ظرفيت بيشتر است(حداقل طول پيت روي DVD برابر 0/4 ميكرومتر و روي CD برابر 0/9 ميكرومتره.)همچنين فاصله قطاع ها روي DVD برابر 0/74 ميكرومتره و روي CD ها برابر 1/6 ميكرومتره.در DVD به همين ترتيب طول موج پرتو ليزر از 780 نانو به 650 تا 635 نانو متر كاهش پيدا كرده و ميشه گفت كه سرعت خوندن ديسك گردان هاي DVD از ديسك گردان هاي CD بيشتره .مثلا سرعت يكي از مدلهاي توشيبا بدون سر و صداي عجيب و غريب به 26 مي رسه.در عين حال ديسك گردان هاي DVD-Rom كنوني، متعلق به نسل سوم هستن و ميتونن اونها رو بدون هيچ مشكلي تحت ويندوز نصب كرد.اين دستگاه ها DVD را باسرعت 4x يا 5x مي خونن.ضمنا سرعت خوندن CD در آنها به 24x تا 32x مي رسه. از طرف ديگه هم جايگزين شدن دستگاههاي نسل سوم با نسل دوم، كارايي اونها رو تا حد زيادي بالا برده. سرعت انتقال داده در محصولات نسل دوم 2700 كيلو بايت بر ثانيه است،در حاليكه در محصولات جديد به 6000 كيلوبايت بر ثانيه مي رسه.همين وضعيت در خوندن CD ها نيز صادقه:سرعت خوندن در مدلهاي نسل دومي 10 تا 12 برابره، در حاليكه در محصولات جديد به 6 برابر هم رسيده. در ضمن سرعت انتقال داده در ديسك گردانهاي مربوط به نسل سوم،حداكثر 6 مگابايت برثانيه است،پس يك رابط E-IDE با سرعت انتقال حداكثر 16 مگابايت بر ثانيه، براي اتصال اونها كافيه.البته برخي از توليدكنندگان اين دستگاهها رو با رابط SCSI ساختن. اگه ميخواين يك DVD-Rom بخريد به اين نكته ها توجه كنين:به كيفيت مكانيزم تصحيح خطا اهميت بدين.با وجود اين مكانيزم،برخي خطاهاي ناشي از خراش هاي روي سطح ديسك و لكه هايي مثله اثر انگشت،تصحيح مي شن.چنين چيزي از چند كيلوبايت سرعت بيشتر، بهتره اين طور نيست؟ همچنين به ميزان امكاناتي كه نياز دارين فكر كنين.بعضي از كليدها كه براي ساده سازي پخش CD هاي صوتي در نظر گرفته شدن،فقط روي گروهي از ديسك گردانها وجود داره. متعلقات و لوازم جانبي كه همراه با ديسك گردان عرضه مي شن،بسته به مارك اونها تفاوت داره،ولي معمولا يك دفترچه راهنما،چند پيچ براي نصب و كابلهاي داده و صوتي همراه ديسك گردان وجود داره.ضمنا بر سازگاري دستگاه هم توجه لازم رو داشته باشين و در موقع خريد اين نكته رو بگيد كه مايليد دستگاه شما با فرمت هاي قبلي مثله CD و... و تا حد ممكن با فرمت هاي موجود هماهنگي و سازگاري لازم رو داشته باشه.البته به تجربه ثابت شده كه ديسك گردانهاي كنوني از نسل سوم، در اين زمينه از اطمينان خوبي برخوردارن. اما برسيم به موضوع كدينگ ها: فيلم هاي DVD براي مبارزه با كپي هاي غير قانوني،به شش روش مختلف در هنگام ضبط كدينگ (Coding ) مي شن.از طرف ديگه دستگاه پخش كننده فيلم هاي DVD هم هنگام ساخته شدن توسط شركت،به نرم افزارهاي كدينگ خاص منطقه فروش مجهز مي شن.پس با اين تفاصيل فقط DVD Player هاي مخصوص مناطق ميتونن DVD هاي خاص اون منطقه جغرافيايي رو پخش كنن.البته اين موضوع براي كمپاني هاي مالك اينگونه فيلمها و محصولات منفعت زيادي داشته و در عين حال براي مصرف كننده،مشكلاتي را به همراه مي آره،از جمله عدم تطابق دستگاه با فيلم مورد نظرتونه. نحوه تقسيم بندي بين المللي كد گذاري DVD ها بر حسب مناطق جهاني اين طوريه : 1)آمريكاي شمالي و كانادا 2)اروپا،آفريقاي جنوبي و ژاپن 3)آسياي جنوب شرقي 4)استراليا،آمريكاي مركزي و جنوبي 5)آفريقا،آسيا و قسمتي از اروپاي شرقي 6)جمهوري خلق چين يه نكته:در زمان خريدن فيلم هاي DVD در هر نقطه از دنيا،حتما بايد به پشت جعبه آن به دقت نگاه كنين و طبق شماره اي كه درج شده ،مطمئن بشيد كه اين DVD با Player شما سازگاره.ايران در منطقه 5 قرار داره و تمام DVD هاي مخصوص اين منطقه رو توسط دستگاههاي پخش كننده در ايران قابل پخشه. حالا زياد نگران نشين يه خبر خوش هم براتون دارم،توي يه مجله خوندم كه جديدا اكثر DVD Player ها كه دارن توليد ميشن ،توليد كنندگانشون با توجه به مشكلاتي كه بهشون اشاره كردم ديويدي هايي رو توليد كردن و ميكنند كه از همه كدينگ ها پشتيباني ميكنن.پس ديگه مشكلي نيست. حالا اگه با استفاده از كامپيوتر مي خواي به استفاده از ديويدي بپردازين كه ديگه اصلا مشكلي نيست.براي پخش همه نوع ديويدي به اين سايت:www.inmatrix.com برين و نرم افزار DVDGenie رو دانلود كنين وقتي كه داونلودش كردين ميتونين از همه نوع ديويدي استفاده كنين،ضمنا ميتونين از نرم افزارهاي Win DVD و Power DVD هم استفاده كنين

 

منبع : سايت علمی و پژوهشي آسمان--صفحه اینستاگرام ما را دنبال کنید
اين مطلب در تاريخ: یکشنبه 02 فروردین 1394 ساعت: 11:40 منتشر شده است
برچسب ها : ,,
نظرات(0)

تحقیق درباره داده کاوی

بازديد: 965

 

باسمه تعالي

 

نگاهی بر داده کاوی و کشف قوانین وابستگی

 

چکیده:

با افزايش سيستمهاي كامپيوتر و گسترش تكنولوژي اطلاعات , بحث اصلي در علم كامپيوتر از چگونگي جمع آوري اطلاعات به نحوه استفاده از اطلاعات منتقل شده است . سيستمهاي داده كاوي ,اين امكان را به كاربر مي دهند كه بتواند انبوه داده هاي جمع آوري شده را تفسير كنند و دانش نهفته در آن را استخراج نمايند .

داده كاوي به هر نوع كشف دانش و يا الگوي پنهان در پايگاه داده ها اطلاق مي شود . امروزه داده کاوی به عنوان یکی از مهمترین مسائل هوش مصنوعی و پایگاه داده ، محققان بسیاری را به خود جذب کرده است . در این تحقیق ابتدا نگاه کلی بر داده کاوی ، استراتژیهای داده کاوی و... داریم ، سپس  مسأله کشف قوانین وابستگی در پایگاه داده را به تفضیل بررسی کردیم و نگاهی به الگوریتمهای موجود برای آن داشتیم . سپس مسأله کشف قوانین وابستگی در پایگاه داده های پویا را مورد بحث قرار دادیم و الگوریتم های ارائه شده مربوطه را مطرح کردیم .

 

 

 

 


 

 

 

مقدمه :

هدف از اين اراِئه و تحقيق بررسي روشهاي مطرح داده كاوي است .داده كاوي هر نوع استخراج دانش و يا الگواز داده هاي موجود در پايگاه داده است كه اين دانشها و الگوها ضمني و مستتر در داده ها هستند ,از داده كاوي مي توان جهت امور رده بندي (Classification ) و تخمين (Estimation) ,پيش بيني (Prediction) و خوشه بندي (Clustering)استفاده كرد .داده كاوي داراي محاسن فراواني است . از مهمترين آن محاسن كشف كردن دانش نهفته در سيستم است كه به شناخت بهتر سيستم كمك مي كند .به عنوان مثال مي توان به استفاده تركيبي از روش خوشه بندي جهت تخصيص بودجه به دسته هاي مختلف  از كتب اشاره كرد .

سيستمهاي داده كاوي تقريبا از اوايل دهه 1990 مورد توجه قرار گرفتند . علت اين امر نيز آن بود كه تا آن زمان سازمانها بيشتر در پي ايجاد سيستمهاي عملياتي كامپيوتري بودند كه به وسيله آنها بتوانند داده هاي موجود در سازمان خود را  سازماندهي كنند . پس از ايجاد اين سيستمها ,روزانه حجم زيادي از اطلاعات جمع آوري ميشد كه تفسير كردن آنها از عهده انسان خارج بود . به همين دليل , نياز به تكنيكي بود كه از ميان انبوه داده معني استخراج كند و داده كاوي به همين منظور ايجاد و رشد يافت .

بنابر اين هدف اصلي از داده كاوي ,كشف دانش نهفته در محيط مورد بررسي است كه اين دانش مي تواند شكلهاي گوناگوني داسته باشد . دانش استخراج شده مي تواند به فرم الگوهاي موجود در داده ها باشد كه كشف اين الگوها منجر به شناخت بهتر سيستم نيز مي شود . الگوهاي استخراجي عموما بيانگر روابط بين ويژگيهاي سيستم هستند بعنوان مثال در سيستم تجاري يك الگو مي تواند بيانگر رابطه بين نوع كالا و ميزان تقاضاي آن باشد .

در اين تحقيق داده كاوي مورد بحث قرار مي گيرد . علل استفاده از داده كاوي و منابعي كه داده كاوي بر روي آنها اعمال مي شود ,علاوه بر اين خلاصه اي از روشهاي رايج داده كاوي ارائه شده است . تكنيكهاي داده كاوي و قوانين وابستگي و الگوريتمهاي موجود (Apriori , Aprior TID, Partition, Eclat ,Max Eclat , Vector ) و الگوريتم با ساختار  Trie وfp grow و الگوريتمهاي كاهشي مورد بررسي قرار مي گيرند و در هر مورد مثالها , موارد كاربرد ,تكنيكها و نقاط قوت و ضعف مورد بررسي قرار گرفته اند .  

 

Data mining(داده كاوي)

تعريف :

Data Mining represents a process developed to examine large amounts of

data routinely collected. The term also refers to a collection of tools used to

perform the process. Data mining is used in most areas where data are

collected-marketing, health, communications, etc.

 

     داده كاوي فرآيند بكارگيري يك يا چند تكنيك آموزش كامپيوتر، براي تحليل و استخراج داده هاي يك پايگاه داده مي باشد.در واقع هدف داده كاوي يافتن الگوهايي در داده هاست.

دانش كسب شده از فرآيند داده كاوي بصورتمدل يا تعميمي از داده ها نشان داده مي شود.

     چندين روش داده كاوي وجود دارد با اين وجود همه روشها   آموزش بر مبناي استنتاج را بكار مي برند.

آموزش بر مبناي استنتاج، فرآيند شكل گيري تعاريف مفهوم عمومي از طريق مشاهده مثالهاي خاص از مفاهيمي كه آموزش داده شده اند، است.

مثال زير نمونه اي از دانش بدست امده از طريق فرايند اموزش بر مبناي استنتاج است:

آيا تا كنون فكر كرده ايد، فروشگاههاي بزرگ اينترنتي در mail هاي خود به مشتريان از چه تبليغاتي استفاده مي كنند؟ و آيا اين تبليغات براي همه مشتريان يكسان است؟

پاسخ اين است كه از روي دانش كسب شده از اطلاعات خريد افراد و نتيجه گيري از اين دانش، اين كار را انجام مي دهند.مثلا در نظر بگيريد يك قانون در پايگاه داده بصورت زير استخراج مي شود:

دقت = 80%  :                  سيگار مي خرند ^  نان مي خرند               كساني كه شير مي خرند

از روي اين قانون فروشگاه مي تواند به تمام كساني كه شير مي خرند تبليغات سيگار و انواع نان را نيز بفرستد.همچنين اين قانون در چيدن قفسه هاي فروشگاه نيز بي تاثير نخواهد بود.

{شير و نان و سيگار در قفسه هاي كنار هم چيده شوند}

 

كشف دانش در پايگاه داده 1

 

KDD      يا كشف دانش در پايگاه داده اصطلاحي است كه مكررا بجاي داده كاوي بكار مي رود. از نظر تكنيكي،  KDD كاربردي از روشهاي علمي داده كاوي است.

بعلاوه براي انجام داده كاوي فرايند KDD شامل :

1-  يك روش براي تهيه داده ها و استخراج داده ها ،

2-  تصميم گيري درباره عملي كه  پس از داده كاوي بايد انجام شود، مي باشد.

 

 

 آيا داده كاوي براي حل مسائل ما مناسب است؟

    تصميم گيري در مورد اينكه آيا داده كاوي را به عنوان استراتژي حل مساله بكار ببريم يا نه، يك مساله دشوار است.

اما به عنوان نقطه شروع چهار سؤال عمومي را بايد در نظر بگيريم :

  1. آيا به وضوح مي توانيم مساله را تعريف كنيم ؟
  2. آيا بطور بالقوه داده با معني وجود دارد ؟
  3. آيا داده ها شامل دانش پنهان هستند يا فقط براي هدف گزارشگري مناسبند ؟
  4. آيا هزينه پردازش داده (براي داده كاوي) كمتر از سود حاصل از دانش پنهان بدست آمده از پروژه داده كاوي است ؟

يك مدل پردازش داده كاوي  ساده :

  در يك ديد كلي ، ما مي توانيم داده كاوي را به عنوان يك فرآيند چهار مرحله اي تعريف كنيم :

  1. جمع آوري يك مجموعه از داده ها براي تحليل
  2. ارائه اين داده ها به برنامه نرم افزاري داده كاوي
  3. تفسير نتايج
  4. بكارگيري نتايج براي مساله يا موقعيتهاي جديد

 

- جمع آوري داده ها :

     فرآيند داده كاوي احتياج به دسترسي به داده ها دارد. داده ممكن است در تعدادي ركورد، در چندين فايل پايگاه داده ذخيره شود و يا ممكن است داده فقط شامل چند صد ركورد در يك فايل ساده باشد.

با توجه به اينكه معمولا داده هاي واقعي شامل چندين هزار ركورد مي باشند، اولين گام در داده كاوي تهيه زير مجموعه مناسبي از داده براي پردازش است. گاهي اين مرحله احتياج به تلاش انسانهاي بسياري دارد. در كل سه راه متداول براي دستيابي فرآيند داده كاوي به داده وجود دارد :

  1. ذخيره داده در انبار داده 1
  2. ذخيره داده در پايگاه داده رابطه اي
  3. ذخيره داده در فايل ساده

 

 

- داده كاوي :

همانطور كه در شكل مشخص است مرحله بعد داده كاوي است. با اين حال قبل از ارائه داده به ابزار داده كاوي ، چندين انتخاب داريم:

  1. يادگيري بايد تحت كنترل باشد يا بدون كنترل ؟
  2. كدام نمونه ها در داده ها ي جمع آوري شده براي ساخت مدل بكار ميروند و كدامها براي تست مدل ؟
  3. كدام صفتها از صفتهاي موجود انتخاب مي شوند ؟

و ....

 

- تفسير نتايج :

     در اين مرحله خروجيهاي مرحله داده كاوي آزمايش مي شوند تا مشخص شود كه آيا اين نتايج قابل استفاده و جالب هستند يا نه؟ همانطور كه در شكل مي بينيم اگر نتايج بهينه نباشد مي توانيم فرآيند داده كاوي را با صفات و نمونه هاي جديد تكرار كنيم. همچنين ما مي توانيم به انبار داده   مراجعه كنيم و فرآيند استخراج دانش را تكرار كنيم.

 

ـ بكارگيري نتايج :

     هدف نهايي ما بكارگيري نتايج براي موقعيتهاي جديد است. به عنوان مثال دانشي كه در يك پايگاه داده فروشگاه بيان مي كند كساني كه مجله ورزشي مي خرند همچنين سيگار هم مي خرند؛ در شكل گيري استراتژيهاي فروشگاه در چيدن قفسه ها ، تهيه كاتالوگ ها و ... تاثير مي گذارد.

 

استراتژيهاي داده كاوي :

     همانطور كه در شكل زير مي بينيم  استراتژيهاي داده كاوي بطور كلي مي توانند به دو دسته تحت كنترل يا بدون كنترل تقسيم مي شوند. آموزش تحت كنترل مدلهايي را با بكارگيري صفات ورودي براي تشخيص   مقدار صفت خروجي مي سازد. حتي برخي از الگوريتمهاي آموزش تحت كنترل امكان تشخيص چندين صفت خروجي را به ما مي دهند. به صفات خروجي ، صفات وابسته نيز

 مي گوييم. زيرا مقدار آنها به مقدار يك يا چند صفت ورودي بستگي دارد. به همين ترتيب به صفات ورودي، صفات مستقل نيز مي گوييم.

هنگامي كه آموزش بدون كنترل را بكار مي بريم تمامي صفات ورودي هستند و صفت خروجي نداريم.

     آموزش تحت كنترل با توجه به اينكه صفات خروجي مقوله اي هستند يا عددي و آيا مدلهاي ايجاد شده براي مشخص كردن موقعيت كنوني ايجاد شدند يا پيش بيني خروجيهاي آينده ، به چندين قسمت تقسيم مي شوند. (منظور از صفات مقوله اي ، صفاتي هستند كه مقدار آنها تعداد محدود و مشخصي است، مثل صفاتي كه مقدار آنها Boolean است كه دو مقدار {true, false} دارد).

 

طبقه بندي1 :

طبقه بندي احتمالا از همه استراتژيهاي داده كاوي قابل درك تر است. طبقه بندي سه خصوصيت دارد :

  1. آموزش تحت كنترل است.
  2. متغير وابسته ، مقوله اي است.
  3. تاكيد بر روي ساخت مدلهايي است كه قادر به اختصاص نمونه هاي جديد به يكي از كلاسهاي تعريف شده باشند.

 

تخمين2 :

     مشابه طبقه بندي ، هدف يك مدل تخمين نيز مشخص كردن مقدار براي يك صفت خروجي است؛ اما بر خلاف طبقه بندي صفات خروجي براي مساله تخمين، عددي است بجاي مقوله اي .

بعنوان يك مثال براي تخمين ، پايگاه داده اي را در نظر بگيريد كه هر ركورد آن اطلاعاتي را راجع به شخصي دارد مثل : محل زندگي، غذاي روزانه در اغلب روزها، نوع ماشين شخصي ، درآمد ماهانه و ....

هدف الگوريتم تخمين در اين مثال ايجاد مدلي براي تشخيص درآمد ماهانه نمونه هاي جديد (ركوردهاي جديد) مي باشد.{كه بقيه صفات آنها بجز درآمد ماهانه مشخص است}.

بيشترتكنيكهاي تحت كنترل قادرند كه يا مسائل طبقه بندي را حل كنند يا تخمين ، اما نه هردورا.

 

پيشگوييPerdiction :

     تشخيص تفاوت بين پيش گويي و طبقه بند ي يا تخمين كار ساده اي نيست. با اين حال هدف يك مدل پيش گويي ، برخلاف طبقه بندي يا تخمين، بجاي مشخص كردن رفتار كنوني، مشخص كردن خروجيهاي آينده است. بيشتر روشهاي داده كاوي كه براي طبقه بندي يا تخمين مناسبند، براي ساخت مدلهاي پيش گويي نيز بكار ميروند. عملا اين طبيعت داده است كه مشخص مي كند يك مدل براي تخمين مناست است يا طبقه بندي ويا پيش گويي.

 

 :Unsupervised Clustering دسته بندي  بدون كنترل 

   در دسته بندي بدون كنترل، ما ديگر صفات خروجي نداريم كه ما را در فرآيند يادگيري راهنمايي كند، در عوض برنامه مربوطه ساختارهاي دانش را با بكارگيري معيارهاي   كيفيت دسته براي گروه بندي داده ها به دو يا چند كلاس (دسته)، بدست مي آورد. .

    يك هدف اساسي دسته بندي بدون كنترل، كشف ساختارهاي مفهومي در داده است.

كاربردهاي متداول دسته بندي بدون نظارت عبارتند از :

-                  مشخص مي كند كه آيا ارتباطات با معني در شكل مفاهيم مي تواند در داده ما پيدا شود يا نه ؟

-                  كارآيي روش آموزش تحت كنترل را مشخص مي كند.

-                  بهترين صفات ورودي براي آموزش تحت كنترل را مشخص مي كند.

-                  شناسايي از حد خارج شده ها (outlier)

 

تحليل سبد بازاريMarket Basket Analyse          :

     هدف اين مرحله پيدا كردن ارتباطات جالب ميان محصولات (خرده فروشي) است. خروجي اين مرحله به فروشندگان كمك مي كند تا بهتر بتوانند قفسه ها را بچينند يا كاتالوگها را تنظيم كنندو نيز در ايجاد استراتژيهاي فروشگاه نيز كارا است. مثالي از دانش اين مرحله به فرم زير است (در يك فروشگاه)

                             سيگار مي خرند                   كساني كه قهوه مي خرند

 

 :Supervised Data Mining تكنيكهاي  داده كاوي تحت كنترل

 تكنيكهاي داده كاوي براي بكارگيري استراتژي داده كاوي براي يك مجموعه داده بكار مي رود. يك تكنيك داده كاوي از دو قسمت تشكيل شده است:

  1. الگوريتم.
  2. ساختار دانش مربوطه مثل درخت يا يك مجموعه قوانين درخت تصميم كه در قسمتهاي قبلي توضيح داديم.

در اينجا چندين روش ديگر براي داده كاوي نظارت شده ارائه مي دهيم :

 

1. شبكه عصبي :

     يك شبكه عصبي مجموعه اي از نودهاي به هم پيوسته است كه طراحي مي شوند تا رفتار مغز انسان را شبيه سازي كنند.

     چون مغز انسان از بيليونها عصب تشكيل شده و شبكه هاي عصبي كمتر از صد نود دارند مقايسه يك شبكه عصبي و رفتار مغز كمي غير متعارف است. با اين وجود شبكه هاي عصبي با موفقيت ، براي حل مسائل بكار برده مي شوندو براي داده كاوي نيز كاملا ابزار مناسبي است .

شبكه هاي عصبي در شكلها و فرمهاي گوناگوني وجود دارند و هم براي آموزش تحت كنترل و هم دسته بندي بدون كنترل بكار مي روند. درهمه موارد ، مقادير ورودي براي شبكه عصبي بايد عددي باشند. شبكه feed-forward يك نوع شبكه عصبي مناسب براي مسائل آموزش تحت كنترل مي باشد.

               

2. برگشت آماري1 :

     برگشت آماري يكي از روشهاي آموزش تحت كنترل است كه يك مجموعه از داده هاي عددي را توسط ايجاد معادلات رياضي مرتبط با يك يا چند صفت ورودي به يك صفت خروجي عددي نسبت

مي دهد.

يك مدل برگشت خطي توسط يك صفت خروجي كه مقدارش بوسيله :

           جمع مقادير صفت هاي ورودي ×  يك وزن مشخص مشخص مي شود.

مثلا اگر يك پايگاه داده شامل صفات ورودي A , B, C , D  و صفت خروجي E باشد، رابطه زير

 مي تواند يك مدل برگشت خطي باشد :

                   E = 0.5 C – 0.2 B + A + 0.32

ميبينيم كه E  صفت خروجي است كه مقدارش توسط تركيب خطي صفات A , B , C  تعيين مي گردد.

همانند شبكه عصبي ، در اين روش نيز همه وروديها بايد عددي باشند و در صورتيكه داده ها در پايگاه داده مقوله اي باشند بايد آنها را به داده هاي عددي تبديل كنيم.

 

3. قوانين وابستگي2 :

     به تفصيل در بخشهاي بعد مورد بحث قرار مي گيرد.

قوانین پیوستگی:

     یکی از مهمترین بخشهای داده کاوی، کشف قوانین وابستگی در پایگاه داده است.این قوانین، لزوم وقوع برخی صفات(آیتم ها) را در صورت وقوع برخی دیگر از آیتمها، تضمین می کند.

برای روشن شدن مطلب یک فروشگاه خرده فروشی را در نظر بگیرید. مشخصات اجناس خریده شده توسط هر مشتری در یک رکورد پایگاه داده ذخیره می شود.به هر رکورد یک شناسه (TID) نسبت داده می شود.فرض کنید که مجموعه I شامل تمام آیتمها(اجناس) فروشگاه باشد. اگر Ì Ix,y  و xy=ø آنگاه x=>y یک قانون وابستگی است که بیان میکند اگریک مشتری اجناس مجموعه x را بخرد، اجناس مجموعه y را هم می خرد. این چنین قوانین، تأثیر مهمی در تایین استراتژیهای فروش، بخش بندی مشتریان، تنظیم کاتالوگها و... دارد. همچنین کشف قوانین وابستگی، کاربردهای بسیاری در علوم مختلف نیز دارد.

تعریف مسأله:

     مجموعه آیتم: به هر زیر مجموعه از مجموعه آیتمها  I)) ' یک مجموعه آیتم ' میگوییم.

در بیشتر الگوریتمها مساله کشف قوانین پیوستگی به دو زیر مساله تقسیم می شود:

1.پیدا کردن تمامی زیر مجموعه های مجموعه I  [مجموعه آیتمها] که تکرار (وقوع) آنها در پایگاه بیشتر از یک حد تایین شده است.

به مجموعه آیتمهایی که تعداد وقوع آنها در پایگاه بزرگتر(یا مساوی)حد تایین شده است

 ' مجموعه آیتمهای بزرگ'، وبه بقیه' مجموعه آیتمهای کوچک' می گوییم.

2.بکارگیری مجموعه آیتمهای بزرگ برای تولید قوانین مطلوب.

تعریف:

    پوشش2: مجموعه I شامل تمام آیتمها و مجموعه آیتم x  را در نظر بگیرید ، می گوییم پوشش x  در پایگاه داده برابر است با   اگر و فقط اگر تعداد وقوع مجموعه آیتم x در پایگاه داده برابر با   باشد.

Support(x)=ℓ

    درجه اطمینان:3 مجموعه I شامل تمامی اقلام و مجموعه آیتمهای x  و y  مفروضند. درجه اطمینان قانون     x=>yبرابر است با :        xy=ø                                                                            

 

                              Conf(x=>y) =  support(xUy)  

                                                      support(x)

  الگوریتم : Apriori    این الگوریتم(Agrawal & Srikant ,1994) برای تولید مجموعه اقلام بزرگ به این ترتیب عمل می کند:                                       

ابتدا با یک دور خواندن پایگاه داده مجموعه اقلام بزرگ یک عضوی ((1-itemsetرا مشخص می کنیم.[مجموعه اقلام 1 عضوی که تعداد تکرار آنها در  DB  از حد تایین شده(minsup) بیشتر است.]

سپس با استفاده ازمجموعه اقلام بزرگ یک عضوی، مجموعه اقلام دو عضوی را ایجاد می کنیم و برای تایین پوشش مجموعه اقلام دو عضوی یک بار دیگر کل پایگاه داده را می خوانیم تا مجموعه اقلام بزرگ دو عضوی را تایین کنیم.

به همین ترتیب با استفاده از مجموعه اقلام بزرگ دو عضوی مجموعه اقلام سه عضوی را ایجاد کرده و با خواندن دوباره پایگاه داده پوشش هر مجموعه قلم سه عضوی را مشخص کرده و مجموعه اقلام بزرگ سه عضوی تولید می شوند و این کار را برای مجموعه های 4عضوی و ... انجام میدهیم تا مرحله ای که هیچ مجموعه آیتم بزر الگوریتم:

L1= { larg-1-itemset }

for ( k=2; Lk-1 ≠0;k+1 ) do

 begin

      C k=apriori – gen(Lk-1 ) //عضوی k عضوی با استفاده از اقلام بزرگ1-k ساخت زیر مجموعه های

        for all transaction lεD do

         begin

             C t=subset(Ck,l); //  رخ دادند.  عضوی در تراکنش k تست اینکها کدام مجموعه آیتمهای                                          

                   for all candidate cεCt  do

                                           c.count++;

         end

     Lk={ cεCk l c.count ≥minsup}

end;

Answer=Uk Lk

 

(تبصره : اگر یک مجموعه آیتم بزرگ باشد[تکرارش درپایگاه داده بیشتر از minsupباشد] تمامی زیرمجموعه های آن نیز بزرگ هستند.)

چون هدف، تولید مجموعه اقلام بزرگ است، در الگوریتم   aprioriدر هر مرحله پس از ایجاد مجموعه اقلامk  عضوی از مجموعه اقلام بزرگ k-1 عضوی قبل از خواندن پایگاه داده برای تشخیص پوشش مجموعه اقلام k  عضوی، ابتدا باید برای هر مجموعه قلم ببینبم آیا زیر مجموعه k-1 عضوی اش بزرگ هستند یا نه، اگر حتی یک زیر مجموعه k-1 عضوی اش هم بزرگ نباشد، آن مجموعه قلم k عضوی نمی تواند بزرگ باشد.(طبق قضیه) و آن را حذف می کنیم.

برای روشن تر شدن الگوریتم به مثال زیر توجه کنید:

 

 

                               minsup=3                          Database:

Items

TID

1  3  4  5

100

2  3  5

200

1  2  3  5

300

2  5

400

1  3  4  5

500

                                                                       

 

 

 

گام1:ایجاد مجموعه اقلام 1 عضوی:

  L 1مجموعه آیتمهای بزرگ:                                     مجموعه آیتمهای 1 عضوی:

{1}=3                                                                               {1}=3

{2}=3                                                                               {2}=3

                            {3}=4                                       {3}=4            

{5}=5                                                                               {4}=2

                              {5}=4

گام2: ایجاد مجموعه آیتمهای دو عضوی با استفاده از مجموعه آیتمهای بزرگ 1 عضوی:

L2مجموعه آیتمهای بزرگ دو عضوی:                           مجموعه آیتمهای 2 عضوی:

{1,3}=3                                                                          {1,2}=1  

{2,5}=3                                                                          {1,3}=3

                            {3,5}=3                                   {1,5}=3           

{1,5}=3                                                                          {2,3}=2

                             {2,5}=3

                                 {3,5}=4

گام3:ایجاد مجموعه آیتمهای سه عضوی با استفاده از مجموعه آیتمهای بزرگ دو عضوی:

مجموعه آیتمهای بزرگ سه عضوی:                           مجموعه آیتمهای 3عضوی:L3

            {1,3,5}=3{1,3,5}=3                                                  

 

Answer=L1 U L2 U L3={{1} {2} {3} {5} {1,3} {2,5} {3,5} {1,5} {1,3,5}}

 

                                                                                                               

 

 

 

الگوریتم     : Aprior TID

  

  در این الگوریتم (Agrawal & Srikant ,1994)در ابتدا فضای جستجو پایگاه داده اولیه است که هر تراکنش آن را به عنوان مجموعه ای از مجموعه قلم های تک عضوی می بینیم:

 به این معنی که تراکنش ((100 l 1,2,3به صورت (100 l{1}{2}{3})در نظر گرفته می شود

 سپس همانند الگوریتم aprioriمجموعه اقلام 1 عضوی را ایجاد کرده و تعداد تکرار آنها را در پایگاه می شماریم و مجموعه اقلام بزرگ 1 عضوی را مشخص می کنیم.

همانند الگوریتمapriori با استفاده ازعناصر مجموعه آیتمهای 1عضوی بزرگ، مجموعه آیتمهای دو عضوی را ایجاد می کنیم.(چون هر مجموعه آیتم k عضوی از ترکیب دو مجموعه  k-1 عضوی تشکیل شده است برای شمردن تعداد تکرار یک مجموعه kعضوی در پایگاه می توان در هر تراکنش به دنبال مجموعه آیتمهایk-1 عضوی تولید کننده آن مجموعه آیتم، گشت. یعنی مثلا برای شمردن تکرار مجموعه آیتم {1,2,3}در هر تراکنش باید ببینیم آیا (1,2)و(1,3)در مجموعه هست یا نه.)

 

 

سپس برای هر تراکنش TIDمربوطه را به همراه تمامی مجموعه آیتمهای kعضوی که در تراکنش هست[تولید کننده های k-1عضوی اش در تراکنش هست] به عنوان تراکنش پایگاه جدید اضافه می کنیم.(برای استفاده مجموعه آیتمهای k+1)                         پایگاه جدید        Ĉk

وتراکنشهایی که هیچ مجموعه آیتم kعضوی را پوشش ندهند به پایگاه جدید راه پیدا نمی کنند.سپس مجموعه اقلام k+1عضوی را با استفاذه از مجموعه اقلام kعضوی بزرگ ایجاد می کنیم ودر پایگاه داده جدید به دنبال تعداد تکرارهای این مجموعه اقلام می گردیم.[در واقع برای هر مجموعه آیتمk+1عضوی در هر تراکنش جستجو می کنیم ببینیم آیا دو مجموعه kعضوی تولید کننده اش در تراکنش است یا نه.]                                              

سپس TIDاین تراکنش به همراه تمامی  مجموعه آیتمهای k+1عضوی که پوشش میدهد به پایگاه داده جدید دیگری اضافه می کنیم،                                        پایگاه داده جدید      Ĉk+1

 و این کار را به ازای تمامی تراکنشها تکرار می کنیم.

عملیات بالا را زمانی که پایگاه داده جدید ایجاد شده (Ĉk )تهی نباشد ادامه می دهیم.

 

 

الگوريتم partition : 

 

 اين الگوريتم)  Savasere &Navathe & Omiecinski,1995) براي بدست آوردن مجموعه آيتمهاي بزرگ از دو قسمت تشكيل شده است. در قسمت اول اين الگوريتم پايگاه داده را به چندين بخش مجزا از نظر منطقي تقسيم مي كند وهمهً مجموعه آيتمهاي بزرگ محلي (مجموعه آيتمهايي كه تعداد تكرار آنها از  minsupp  محلي كه براي هر بخش در نظر گرفته شده بيشتر است) براي هر بخش بطور مجزا توليد مي شود .

سپس در انتهاي مرحله يك ، همه مجموعه اقلام بزرگ در هر بخش باهم مجموعه اقلام بزرگ بالقوه در سطح كل پايگاه داده را تشكيل مي دهند (مجموعه Σ). درقسمت دوم، پوشش (تعداد تكرار ) هر مجموعه آيتم در مجموعه اقلام بالقوه (Σ) در كل پايگاه داده شمارش مي شود و مجموعه اقلام بزرگ واقعي محاسبه مي شوند .

توجه: براي هر بخش يك minsupp محلي در نظر گرفته مي شود و يك minsupp كلي براي كل پايگاه داده نيز داريم.

نحوه توليد مجموعه اقلام بزرگ در هر بخش به صورت زير است:

 

 

1-     ابتدا به ازاي هر آيتم a در مجموعه I ( آيتم ها ) ، ID تراكنش هايي در بخش مربوطه از DB كه شامل آيتم a مي باشند را مشخص مي كنيم.

 

                         بخش2  t(a)={400,500,601}                       بخش1t(a)={100,300}   

 

سپس همانند الگوريتم apriori ، ابتدا مجموعه اقلام يك عضوي بزرگ را ايجاد مي كنيم . سپس از روي آنها مجموعه اقلام بزرگ دو عضوي را ايجاد ميكنيم و

با اين تفاوت كه در اين الگوريتم براي محاسبه پوشش (تعداد وقوع ) هر مجموعه آيتم مثل

                                          A={i1,i3,i5}                i1,i3,i5 Î I

 تعداد اعضاي مجموعه   t(A)=t(i1)Çt(i3)Çt(i5)را مي شماريم (به جاي خواندن دوبارهDB )، كه t(x) مجموعه ID تراكنش هاي شامل x است (در همان بخش).

پس از اينكه تمام مجموعه اقلام بزرگ(مجموعه اقلامي كه تعداد تكرار آنها در اين بخش از DB بزرگتر از minsupp محلي است ) را بدست آورديم همين كار را براي بخش هاي ديگر تكرار مي كنيم .

در صورتيكه مجموعه اقلام بزرگ  براي بخش i را ، åi  بناميم، مجموعه å به صورت زير ايجاد مي شود:

å=å1Èå2ÈÈån                                                                         

حال مجموعه  Σشامل مجموعه اقلام بزرگ بالقوه است .اكنون يك بار ديگر پايگاه داده را مي خوانيم وپوشش هر كدام از مجموعه اقلام كانديد را در كل پايگاه داده مشخص مي كنيم.

 در صورتيكه پوشش A ازminsup،عمومي بزرگتر باشد .يك مجموعه اقلام بزرگ است.                                                        

 

 

تعداد بخش ها در پايگاه به گونه اي تعيين شده كه هر بخش به همراه ساختمان داده هاي مورد نياز در حافظه جاي گيرد .

 

 

 

 

 الگوريتم هاي MaxEclat,Eclat :

 

     در اين الگوريتم ها(Zaki,1997) نيز همانند partition ابتدا مجموعهt(ai) به ازاي هر ai متعلق I (مجموعه اقلام كلي)توليد مي شود.(t(ai)  شناسه تراكنشهايي را دارد كه شامل ai  هستند.)

ولذا پس از ايجاد هر مجموعه آيتم k عضوي (از مجموعه هاي k-1 عضوي) مثل A={a1,a2,a3} براي محاسبه پوشش A در پايگاه داده تعداد اعضاي مجموعه  t(a2) t(a3)  t(A)=t(a1) را شمارش مي كنيم.

با توجه به اينكه تعداد مقادير مياني با انجام اين كار (اشتراك ها) بسيار زياد مي شود، فضاي حافظه اصلي جوابگو نيست و لذا راه حل زير ارائه شد.

با توجه به تعاريف رياضي، مجموعه تمام زير مجموعه هاي يك مجموعه (مجموعه تواني) ، يك شبكه را تشكيل ميدهند.اين الگوريتم ، اين شبكه را به چندين زير شبكه تقسيم ميكند و براي هر زير شبكه بطور مجزا مجموعه آيتمهاي بزرگ را توليد مي كند. در اين صورت ساختمان داده هاي هر زير شبكه به راحتي در حافظه اصلي جاي مي گيرد .

 

 

 
 

 

 

در شكل زير ، زير شبكه مربوط به آيتم [A] را مشاهده مي كنيم كه شامل اعضايي است كه با A شروع مي شوند. به نودهايي كه مستقيما‍‌ با [A] در ارتباطند ’اتم’ها مي گوييم.

 

 

 

 
 

 

 

 

درهرزيرشبكه با داشتن اتمهاي مربوطه ميتوان استراتژيهاي پايين به بالا (partition,apriori ) ويا بالا به پايين را براي جستجوي مجموعه اقلام بزرگ بكار برد.(در شكل جستجوي پايين به بالا را مشاهده مي كنيم).

 

 
 

 

 

 

 

S در الگوريتم فوق مجموعه اتمهاي زير شبكه است و F مجموعه اقلام بزرگ نهايي است و     Tiمجموعه اقلام بزرگ جديد هستند.(يك سطح بالاتر).

 

در روش بالا به پايين در هر زير شبكه از بزرگترين مجموعه آيتم در آن زيرشبكه شروع مي كنيم و به سمت اتمها پيش مي رويم. هر گاه يك نود مجموعه قلم بزرگ  را مشخص كند ديگر براي آن نود فرزندانش چك نمي شوند زيرا مطابق قضيه قبلي (زير مجموعه هاي بزرگ هم بزرگند)، تمام زير مجموعه هايش مجموعه اتم هاي بزرگ هستند .


بجز روش بالا به پايين و پايين به بالا روش ديگري به نام hybrid كه تركيب دو روش بالا به پايين و پايين به بالا مي باشد  نيز وجود دارد كه اين روش را در شكل زير نشان داديم.

 

 

 

 

 

ابتداAWو AC تركيب مي شوند(. (ACWاگر(ACW)مجموعه آيتم بزرگ باشد با عنصر اتم بعدي (AT) تركيب ميشود و(ACTW)را ايجاد مي كند.دوباره اگر اين مجموعه آيتم بزرگ باشد با اتم بعدي (AD) تركيب ميشود و تشكيل (ACDTW) را مي دهد و چون اين مجموعه آيتم بزرگ نيست مجموعه آيتم قبلي (ACTW) يك مجموعه آيتم maximal  است.

حال اگر مجموعه تمام اتم هايي كه دراين مرحله شركت داشتند را S1 بناميم و بقيه اتم ها را, S2  به ازاي  اولين عضو  S2   مثل ai,ai را با تمام اتم هاي S1  تركيب كرده و اتم هاي جديد را به دست مي اوريم و براي آنها جستجوي پايين به بالا را تكرار مي كنيم و مجموعه آيتم هاي بزرگ را به دست مي آوريم .سپس ai هم به S1 رفته و از S2 خارج ميشود .حال دوباره به ازاي اولين عنصر S2 كارهاي قبل را تكرار مي كنيم.(تركيب اولين عنصرS2 با اتم هاي S1 و فراخواني جستجو پايين به بالا براي آنها)

 

با توجه به استراتژيهاي بالا الگوريتم هاي زير را داريم:

Eclat: روش پايين به بالا را براي هر زير شبكه اعمال مي كند.

Maxeclat : روش تركيب hybrid را براي هرزير شبكه اعمال مي كند.

 

الگوريتم با ساختار trie :

    در اين الگوريتم(Amir & Feldman & Kashi,1998) از يك ساختار داده بنام trie  براي توليد مجموعه اقلام بزرگ استفاده مي كنيم . به كار گيري اين ساختارها  ما را قادر مي سازد تا مجموعه اقلام بزرگ را به طور كارا توليدكنيم.( حتي با وجود minsupp هاي بسيار كوچك)

 

     رشته S=S[1]...S [n] را در نظر بگيريد براي افزودن اين رشته به درخت trie ابتدا از ريشه درخت trie شروع مي كنيم (current-node= root) و نگاه مي كنيم , بينيم آيا يالي از

current-node با بر ‌چسپ S [1] وجود دارد يا خير .

اگر چنين يالي وجود داشت , از طريق آن يال به نود فرزند مي رويم و ) نود فرزند=(current node سپس دوباره اعمال بالا را براي current-node جديد و كاراكتر بعدي (S[2]) تكرار مي كنيم.

در غير اين صورت ( يالي با بر چسب S[1]  وجود نداشت ) , يالي با برچسب S[1]  از current-node   ايجاد مي كنيم و فرزند ايجاد شده از طريق اين يال ,current-node   مرحله بعدي است .

حال بايد كار را براي S[2]  و current-node   جديد تكرار كنيم .

اين كار را آنقدر تكراركنيم تا رشته تمام شود, در صورتيكه تمام رشته را چك كرديم و كار را براي S[n]  و current-node مربو طه اش چك كرديم شمارنده مربوط به نود فرزند( Currentنود آخر از طريق يال S[n]  )  رامي افزاييم.

 

الگوريتم مربوطه:

 

     در اين الگوريتم فقط يك دور پايگاه داده را مي خوانيم و به ازاي هر تراكنش مثل  ,T تمام زير مجموعه هاي T  را به درخت (trie)   مي افزاييم .

مثلا براي ‍{1,2,5} زير مجموعه هاي ‍{1,2,5},{2,5},{1,5},{1,2},{5},{2},{1} يكي يكي به درخت trie افزوده مي شوند.

در نهايت شمارنده مربوطه به هر نود در درخت (trie) تعداد وقوع مجموعه آيتم نود مربوطه را در بر دارد.

 

نكته :اين الگوريتم براي حالات خاصي كه طول هر تراكنش بسيار كم است در نظر گرفته شده است و در هنگامي كه طول تراكنش ها كم باشد , مي توان نتيجه گرفت كه طول مجموعه اقلام بزرگ نيز از يك حدي

 ( طول M ) بيشتر نخواهد بود,لذا براي هر تراكنش فقط زير مجموعه هاي 1 تا M عضوي را توليد وبه درخت اضافه مي كنيم.

 

الگوريتم fp-grow :

 

     در اين الگوريتم (Han &Pei &Yin,2000)با استفاده از ساختاري فشرده به نام

 frequent pattern tree(fp-tree) كل فضاي پايگاه داده را به فضاي كمي در حافظه اصلي نگاشت مي كنيم و موقع شمردن پوشش مجموعه آيتم ها درپايگاه داده از fp- tree  استفاده مي كنيم.به اين ترتيب زمان ناشي از خواندنپايگاه داده (DB) در دفعات كاهش مي يابد.

 

تعريف:

1_ يك fp- tree يك درخت است كه ريشه آن null است و يك مجموعه از زير درخت هاي پيشوندي آيتم به عنوان فرزندان ريشه هستند, يك جدول سرايند آيتم هاي بزرگ هم وجود دارد.

2_هر نود در درخت   fp- tree شامل سه مولفه است:

الف: نام آيتم: آ يتمي كه نود مشخص مي كند.

ب: تعداد : تعداد تراكنش در پايگاه داده, كه شامل بخشي  از شاخه درخت از ريشه تا آن نود هستند.

ج: link : اشاره گري به نود بعدي در درخت كه شامل همين آيتم است , يا مقدارnull دارد.

3 _ هر ورودي در جدول سرايند از دو فيلد تشكيل شده:

1-نام آيتم                   2- اشاره گري به اولين نود حامل آيتم

 

ساخت fp- tree :

 

     براي ساخت fp tree  ازپايگاه داده , ابتدا يك دور پايگاه داده را مي خوانيم تا پوشش هر آيتم مشخص شود. . (Supp (a))

سپس قبل از افزودن هر تراكنش به درخت fp tree, مجموعه آيتم هاي آن تراكنش را, ابتدا بر اساس supp  (پوشش) مرتب مي كنيم و سپس به درخت مي افزاييم.

 

 

 

الگوريتم ساخت fp- tree  :

 

     ورودي : يك پايگاه داده شامل تراكنش ها و يك حد مينيمم براي پوشش )(

     خروجي : درخت fp tree مربوطه.

 

 

الگوريتم :

 1- يكبار پايگاه داده را بخوانيد.مجموعه F شامل آيتم هاي بزرگ( با تكرار كافي در پايگاه داده) و پوشش هر يك را بدست آوريد.سپس F مرتب كنيدو L بناميد.

2_ ريشه fp-tree(T)را null بگذاريد و براي هر تراكنش در پايگاه داده , به ترتيب زير عمل كنيد:

ابتدا آيتم هاي بزرگ در تراكنش را انتخاب نماييد و مطابق مجموعه L مرتب كنيد( به ترتيب پوشش) فرض كنيد مجموعه آيتم هاي بزرگ مرتب شده حاصل از اين تراكنش به صورت [p|P] كه p اولين آيتم در اين مجموعه است و P بقيه آيتم هاست , تابع insert tree ( [p|P] ,T) را فراخواني كنيد.

اين تابع به شكل زير كار ميكند كه اگر T فرزندي مثل N دارد كه

 N.itemname=p.itemname  آنگاه شمارنده (count)   نود N يكي افزايش مي يابد و گرنه يك نود جديد N مي سازيم و شما رنده آن را يك مي كنيم .

Link پدربراي اين نود به T اشاره مي كندو node-link اين نود به نودي با همين item-name    

 در همين درخت اشاره مي كندو اگر P تهي نيست insert-tree(P,N) را فراخواني كنيد.

 شكل صفحه  بعد مثالي را نشان مي دهد كه fp tree براي جدول 2 رسم شده است و header table نيز آدرس اولين نود را براي هر آيتم بزرگ را دارد .

 

الگوي شرطي:

     براي روشن مفهوم فوق (الگوي شرطي) شكل را در نظر بگيريد.آيتم p را در نظر بگيريد.مطابق شكل شاخه هاي  پيشوند هاي p در درخت عبارتند از <f:4,c:3,a:3,m:2> و زير شاخه. <c:1,b:1> به اين معني كه مجموعه آيتم هاي پيشوندي در پايگاه داده عبارتند از <c:1,b:1>,<f:2,c:2,a:2,m:2> كه به اين دو الگوي هاي شرطي ميگوييم.

 

الف

 

 

 

 

  Fp-tree شرطي :

 

   در صورتيكه با الگوهاي شرطي, از نو يك fp-tree درست كنيم و نود مربوط به  آيتم هايي كه تعداد تكرار كمتر از   دارند  را حذف كنيم, درخت حاصل fp-tree  شرطي ناميده ميشود.و به صورت(fp-tree|p) نمايش داده مي شود ) كه p آيتم مربوطه است)

(fp-tree|m) در شكلزير مشخص است.

 

 

 

 

 

 

الگوريتم ايجاد مجموعه آيتم هاي بزرگ بوسيله درخت fp-tree :

 

     روش كار به اين صورت است كه ابتدا به ازاي هر آيتم بزرگ مثل {a} كارهاي زير را تكرار مي كنيم :

1-    temp =λ 

2-اگر  ,aÈtemp را به مجموعه آيتم هاي بزرگ اضافه كن .

T1=(fp-tree|a) را در درخت ايجاد ميكنيم و (temp=a).

 

 

دوباره درداخل اين  fp-treeجديد(T1)  به ازاي هرآيتم بزرگ دراين  fp-treeمثل a' در صورتيكه  (تكراردردرخت T1)}È temp,   {a' به مجموعه آيتم هاي بزرگ اضافه مي شودو دوباره همين كار را براي ( T2 =(T1|a' حاصل از درخت T1 تكرار مي كنيم.

(مقدار  temp قبل از فراخواني تابع (T1|a') برابرست با : temp=a' È temp')

 

 

 

 

 

الگوريتم برداري :

 

برای هر آیتم یک بردار مشخصات (ویژگی) فشرده به همراه یک رکورد ویژگی ساخته می‌شود. این ساختار فقط یکبار در هنگامی که پایگاه داده برای اولین بار خوانده می‌شود، ساخته می‌شود. سپس براي پوشش محاسبه هر مجموعه آيتم, از بردارهاي فوق( به جاي پايگاه داده ) استفاده ميشود.

لذا  دسترسی مجدد به پايگاه داده اوليه  نیازی نیست و محاسبات نیز بسیار سریعتر از الگوریتمهای قبل می‌باشد.

 

   الگوریتم ارائه شده:

 

       ایده‌ی این روش، استخراج ویژگی‌های آیتم‌های مشخص شده1و ذخیره آنها در یک بردار فشرده است. پس از اینکه بردار فشرده این آیتمها ساخته شود همه محاسبات برای مشخص شدن پوشش (تعداد تکرار در پایگاه داده) هر مجموعه آیتم از طریق عملیا ت AND بین بردارها صورت می‌گیرد بجای دسترسی مجدد به پایگاه داده.

(بردار فشرده‌ی یک آیتم مشخص می‌کند که این آیتم در کدام تراکنش‌ها رخ داده است)

در الگوریتم(Tseng,2000) دو پایگاه داده داریم بنامهای Support DB  و feature DB:

feature DB  : بردارهای مربوط به آیتم‌ها را مشخص می‌کند. (هرخانه آن بردار مربوط به یک آیتم است)

Support DB: پوشش هر آیتم را در بر دارد.

هنگامی که کاربر یک تقاضا مبتنی بر کشف قوانین وابستگی بین آیتمهای IT (که ) با حداقل پوشش minsupp و حداقل درجه اطمینان minconf می دهد، در این روش ابتدا چک می‌کنیم ببینیم ,   آیا     feature   DB  ,Support DB وجود دارند یا نه در صورتیکه وجود نداشته باشند آن ها را می‌سازد. ساخت feature DB  , Support DB احتیاج به یک دور خواندن کل پایگاه داده دارد.در طول خواندن پایگاه داده، Feature DB ، Support DB برای آیتمهای مشخص شده توسط کاربر نیز ساخته می‌شود. پس از اینکه Feature DBSupport DB, ساخته شدند در ديسك قرار مي گيرند.

لذا , را نيز با دسترسی مستقیم به Support DB مشخص کنیم , بجای خواندن کل پایگاه داده.

 پس از مشخص شدن ، بردار هر مجموعه آیتم مورد نیاز نیز با عملیات AND به سرعت انجام می‌شود.

1) IF (SupportDB is empty)

Scan the database to build SupportDB and determine , and build Feature DB for interested items;

    ELSE

Retrieve SupportDB and determine and build FeatureDB for non-existent items;

2) k=2

3) Generate candidate large itemsetfrom;

4) IF  is not empty

Optain the count for each itemset in   by bitwise AND operators on the  items' feature vectors and get;

go to step 3;

5) Answer= union of all;

 

 

     مرحله ساخت بردار  برای آیتم d به صورت زیر است:

بردار یک بردار است به طول تعداد تراکنشهای پایگاه داده. در صورتیکه آیتم d در یک تراکنش با شناسه‌ی j باشددر غیر اینصورت . (فرض بر این است که شناسه‌ها در پایگاه داده از 1 تا1-  nطول پایگاه داده" است) مثلاً اگرآیتم a در یک پایگاه داده‌ی 10 عضوی فقط در رکوردهای 10,5,4 رخ دهد, داریم:

 

1

2

3

4

5

6

7

8

9

10

0

0

0

1

1

0

0

0

0

1

 

 

 

به این ترتیب با داشتن بردار هر آیتم برایمشخص کردن بردار هر مجموعه آیتم مثل  داریم :

 

 

بدیهی است که تعداد 1 ها در بردار هر مجموعه آیتم برابر پوشش آن مجموعه آیتم است.

به این ترتیب تمام مجموعه آیتم‌های بزرگ تولید می‌شوند.

واضح است که در یک بردار مقادیر زیادی صفر وجود دارد که فضای زیادی را اشغال می‌کنند. برای رفع این مشکل می‌توان در صورتیکه چندین (بیشتر از 8) 0 پشت سر هم وجود داشت تعداد آنها را بشماریم و در یک index ِ شمارنده ذخیره کنیم. با ذخیره بردار هر آیتم دسترسی به پایگاه داده به حداقل می‌رسد.

یک راه حل دیگر اینست که برای هر آیتم فقط شماره رکوردهایی را که آیتم در آنها رخ داده را ذخیره کنیم یعنی به عنوان مثال اگر آیتم a در رکوردهای شماره  220,201,100 رخ داده بردار آن به شکل زیر است: 

در اینصورت برای هر مجموعه آیتم X بردار به شکل زیر است:

 

ساخت و هرس کردن مجموعه آیتمهای کاندید بزرگ از  همانند الگوریتم Aprioriاست با این تفاوت که برای شمارش پوشش هر مجموعه آیتم این کار از طریق عملیات   AND  یا اشتراک انجام می‌دهیم.       

و تنها برای محاسبه‌ی بردارهای هر آیتم, پایگاه داده را در ابتداي كار يك دور می‌زنیم.

 

 

 

 

 

 

 يك الگوريتم جديد براي پايگاه داده هاي پويا :

 

 

     پویایی پایگاه داده را از دو جنبه می توان بررسی کرد :

 

  1. هنگامی که داده ها تغییر کنند (یک رکورد تغییر کند) یا داده ها از پایگاه داده حذف شوند .
  2. هنگامی که داده ای ( رکورد جدید ) به پایگاه داده اضافه شود .

داده کاوی که با نوع اول از پویایی پایگاه داده تطابق دارد را داده کاوی کاهشی و داده کاوی که با نوع دوم پویایی تطابق دارد را داده کاوی افزایشی می نامیم.

الگوریتم    Zhang &Etal,2003)  )    از نوع الگوریتم کاهشی است . یعنی ورودی را بررسی میکنیم که میخواهیم داده کاوی را در یک پایگاه داده که داده هایش دائما حذف  شده و یا تغییر کرده اند انجام میدهیم و قاعدتا انتظار داریم که الگوریتم در فواصل مختلف زمانی که پایگاه داده مورد تغییر (یا حذف)  قرار می گیرد با بکارگیری الگوهای حاصل از داده کاوی قبلی از هزینه زمانی خوبی برخوردار باشد .

متاسفانه تحقیقی در مورد کشف قوانین وابستگی هنگامی که داده ها از پایگاه داده حذف می شوند صورت نگرفته است . در حالیکه حذف ،یکی از عملیات اساسی در پایگاه داده است .

لذا کاربر باید دوباره الگوریتم داده کاوی را برای پایگاه داده جدید با تولید تمام الگوها از اول بکار گیرد که این کار بسیار پر هزینه است .

 

نگهداری قوانین وابستگی :

 

    فرض کنید DB پایگاه داده اصلی (قبل ار تغییر) باشد ، db نیز یک مجموعه داده باشد که تصادفا از DB حذف میشوند و DB-db بقیه پایگاه داده ی اصلی باشد .

 |DB| ، |db| و |DB-db| به ترتیب اندازه ی پایگاه داده اصلی ، پایگاه داده ی حذف شده و پایگاه داده ی حاصل از حذف داده ها از DB باشد . همچنین فرض کنید S0 حداقل پوشش تعیین شده توسط کاربر باشد .

 L ، L' و L" مجموعه ی مجموعه آیتمهای بزرگ در DB  ، db و DB-db می باشد . فرض کنید که مجموعه L و پوشش هر مجموعه آیتم بزرگ در آن مشخص است .

بعد از یک دوره زمانی برخی از داده ها ی غیر مفید از پایگاه داده اصلی حذف می شوند و پایگاه داده ی حذف شده ی db را تشکیل میدهند .

 فرض کنید یک مجموعه آیتم مثل X موجود باشد با پوشش Supp X  . X  یک مجموعه آیتم بزرگ است اگر≥ minSuppSupp

بنابراین یک مجموعه آیتم مثل X میتواند در پایگاه داده جدید (DB-db) بزرگ نباشد .

 

الگوریتم کاهشی :

 

     در این الگوریتم با داشتن L  )مجموعه آیتمهای بزرگ DB) و S0 (حداقل پوشش) ، مجموعه آیتمهای بزرگ در پایگاه داده ی جدید (DB-db) را که در L" قرار میدهیم ، بدست می آوریم .

این الگوریتم به شکل زیر آمده است :

 

Compute S' ;  /* S' is explained later in this section and also in Section 4.1. */

 

Mine db with minimum support S' and put the frequent itemsets into L' ;

 

For each itemset in L do

          For each itemset in L' do

              Identify the frequent itemsets in DB-db, eliminate them             from L' and store to L" ;

Return L";

End procedure ;

 

در این الگوریتم برای S' مقادیر مختلفی وجود دارد . بطور کلی S' = m.S0 که 0<m<1 است .

مشخص شدن m  یک مساله قابل بحث و تحقیق است .

 

نتيجه گيري:

هدف اصلي از داده كاوي ,كشف دانش نهفته در محيط مورد بررسي است كه اين دانش مي تواند شكلهاي گوناگوني داسته باشد . دانش استخراج شده مي تواند به فرم الگوهاي موجود در داده ها باشد كه كشف اين الگوها منجر به شناخت بهتر سيستم نيز مي شود . الگوهاي استخراجي عموما بيانگر روابط بين ويژگيهاي سيستم هستند. همانطور كه ديديد در اين تحقيق ما الگوريتم هاي مختلف براي كشف قوا نين وابستگي در پايگاه داده را, مورد بررسي قرار داديم. از بين الگوريتم هاي گفته شده Vector,Partition,Apriori از مهمترين الگوريتم ها مي باشند.

الگوريتم هاي trie,fp-grow نيز در موارد خاص بسيار كارا هستند.

در تمام الگوريتم هاي بحث شده پوشش حداقل ثابت بوده و فقط يك مقدار به عنوان پوشش حداقل داشتيم.الگوريتم هايي(Lee &Hong,2005) براي مواقعي كه براي هر آيتم يك پوشش حداقل,در نظر مي گيريم نيز طراحي شده است كه از گنجاندن آنها در اينجا خودداري كرديم.

همچنين الگوريتم هايي براي مواردي كه در پايگاه داده, به ازاي هر مشتري علاوه بر اجناس خريداري شده تعداد هر جنس را هم داريم , موجود مي باشد.

اخيرا نيز الگوريتم هاي فازي نيز براي كشف قوانين وابستگي در پايگاه داده, طراحي شده است .

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

مراجع:

1)A.amiri,R.Feldman and R.Kashi. A new and versatile method for association  generation.Information Systems, vol. 22,no. 6, pp. 333-347, 1999.

2)J.Hipp,U.Guntzer and G.Nakhaeizadeh.Algorithms for Association Rules

data Mining _ a General survey and comparision.Source, ACM SIGKDD Explorations Newsletter,2(1):58–64, July 2000.

3) Y.Lee ,T.Hong and W.Lin.Mining association rules with multiple mininmum supports using minimum constraints . International Journal of Approximate Reasoning 40(2005) 44-54.

4)S.Zhang ,X.Wn , J.Zhang and C.Zhang. A Decremental Algorithm for Maintaining Frequent Itemsets in Dynamic Database. DaWaK 2005, LNCS 3589, pp. 305–314, 2005.

5) S.Tseng.An Efficient Method for Mining Association Rules With Item Constraint . Technical Report No. CSD-99-1089,2000.

6) P.Hsu,Y.chen and C.ling.Algorithms for mining  associations rules in bag database . INFORMATION SCIENCES 166(2004) 31-47.

7)Y.GAO,J.MA and L.Ma.

A New Algorithm for mining fuzzy association rules.preceedings of third international confrance of machine learning and cybmetic, shanghai,26_29 Agust 2004  .

اطلاعات مورد نياز نيز با استفاده از اينترنت تهيه شده است .كليد واژه هاي مورد استفاده عبارتند از :

Data Mining , Graph Data Base , Graph Search Algorithms

سايتهايي كه با كليد واژه هاي فوق نمايش داده مي شوند تعداد نسبتا زيادي را تشكيل مي دهند  پس از مطالعه سايتها ,سايتهاي زير قابل استفاده تشخيص داده شدند و مورد استفاده قرار گرفتند :

 

citeseer.nj.nec.com/gting94graphdb.html : صفحه ابتدايي GraphDB است كه نحوه پياده سازي گراف در بانك اطلاعاتي را توضيح مي دهد .

 db.cs.sfu.ca/DBMiner: سايتي است حاوي اطلاعاتي در مورد معماري نرم افزار داده كاوي و نمونه يك

نرم افزارتوليد شده در اين زمينه كه بر روي انبار داده عمل داده كاوي را انجام مي دهد .

 db.cs.sfu.ca/GeoMiner: سايتي است حاوي اطلاعاتي در مورد داده كاوي و يك پروژه در زمينه داده كاوي فضايي .

www.mecani.org : سايتي است حاوي اطلاعاتي در مورد بانكهاي اطلاعاتي.

www.sigmod.com:   سايتي است حاوي اطلاعاتي در مورد داده كاوي از بانكهايرابطه اي و فضايي.

ftp.fas.sfu.ca  : اين سايت حاوي معماري و الگوريتمهاي متعددي براي سيستمهاي داده كاوي است .

هرگونه سوال در زمينه Data Mining  رامي توانيد  با اين email  نيز در ميان بگذاريد .            

training@the-modeling-agency.com



1.Khowledge Discovery in DB (KDD)

1 . Data Warehouse

1 . Classification    

2 . Estimation    

1 . Statistical Regression

2 . Association Rules

2 .support

3 .confidence

-1آیتم هایی که توسط کاربر مشخص می شود.

منبع : سايت علمی و پژوهشي آسمان--صفحه اینستاگرام ما را دنبال کنید
اين مطلب در تاريخ: یکشنبه 02 فروردین 1394 ساعت: 11:30 منتشر شده است
برچسب ها : ,,,
نظرات(0)

تحقیق درباره تفاوت های CPU های AMD وIntel

بازديد: 311

 

تفاوت های CPU های AMD وIntel

 

تفاوت های CPU های AMD وIntel عبارتند از: 1-AMD براساس معماری اجرایی 9 مرحله ای ساخته شده است اما معماری پردازنده های Intel شش مرحله ای می باشد.بدین معنا که AMDدر هر چرخه کاری 9عملیات را انجام میدهد در حالی که Intel فقط 6 عمل را می تواند انجام دهد. 2-AMD از640Kb Cache برخوردار است در حالی که Intel ، از 532Kb بر خوردار است هر چقدر که میزان Cache پردازنده بیشتر باشد ، پردازنده کارایی بیشتری خواهد داشت اطلاعات بیشتری میتواند ذخیره کند ودیگر لازم نیست پردازنده برای بدست آوردن اطلاعات یا دستور ها مدت زمان بیشتری را رفت و برگشت به حافظه برد اصلی برای جذب اطلاعات یا دستور العمل ها صرف کند. 3- AMD از مس برای اتصال ترانزیستور های بکار رفته در پردازنده ها استفاده میکند در صورتی که در ساختمان پردازنده های Intel آلومینیوم بکار رفته است.مس هادی الکترسیته بهتری است ، ازاین رو پهنای اتصالهای بین ترانزیستورها را به میزان چشمگیری کاهش می یابد .که این امر باعف مصرف کمتر مواد اولیه و در نتیجه منجر به کاهش هزینه می شود این دلیل ارزان تر بودن AMD نسبت به P4 است. 4- از دیگر تفاوت های میان AMD وIntel میتوان به راندمان Cache بروی چیپ اشاره کرد ، AMD از معماری انحصاری استفاده میکند که راندمان بیشتری نسبت بیشتری نسبت به طراحی معماری غیر انحصاری Intel دارد. 5-AMD از تکنولوژی پردازش موازی در مقایسه با Hyper -Threading اینتل استفاده میکند ، در بسیاری از کاربردهای امروزی ٿعال بودن Hyper -Threading کارائی پائین تری ارائه میدهد ، نتایج تحقیقات بیشمار منتشر شده در نشریات رایانه ای و پایگاهای اطلاعاتی معتبر بیانگوی این پدیده هستند. 6-یکی دیگر از مهمترین نکات برتر پردازنده های AMD واحد ممیز شناور آن است که از FPU اینتل بسیار قویتر میباشد که این امر باعث اجرای سریع تر برنامه های چند منظوره( MultiMedia) میشود. 7- زمانی که اینتل P4 را طراحی کرد طول PIPELINE را از 10 مرحله در P3 به 20 مرحله افزایش داد Intel همین تغیر توانست که تعداد عملیاتی که در چرخه عملیاتی انجام می شود بصورت قابل ملاحظه ای کاسته میشود و از طرف دیگر افزایش طول PIPELINE نیازمند افزایش تعداد ترانزیستور ها برای انجام همان تعداد عملیات میباشد که این امر باعف افزایش اندازه هسته و بالا رفتن قیمت تولید میشود . در حالی که AMD با وجود افزایش فرکانس پردازنده های خود طول pipeline را به همان اندازه p3 یا k6 فابت نگهدارد .

 

منبع : سايت علمی و پژوهشي آسمان--صفحه اینستاگرام ما را دنبال کنید
اين مطلب در تاريخ: یکشنبه 02 فروردین 1394 ساعت: 11:28 منتشر شده است
برچسب ها : ,,
نظرات(0)

تحقیق درباره BLUETOOTH

بازديد: 197

 

BLUETOOTH چيست؟


به تازگي پس از يك سمينار عصرانه به خانه باز گشته ايد.

Notebook تان در كيف تان قرار دارد ، PDA (Personal Digital Assistant) خود را به كمر بسته ايد ، و تلفن همراه تان در جيب جاي دارد.

در سمينار امروز يادداشتهايي را در Notebook خود نوشته ايد . همين كه به خانه مي رسيد و از كنار چاپگر جوهر افشان خود عبور مي كنيد ، Notebook ، چاپگر را پيدا مي كند و به طور خودكار يادداشتهاي سمينار را به چاپگر ارسال مي كند و آنها روي كاغذ چاپ مي شوند .

درهمين حال ، PDA شما كامپيوتر روميزي را تشخيص مي دهد و درخواست مي كند كه دفتر تلفن و برنامه روزانه شما را Update شود . هم چنين همه پيامهاي ايميلي را كه ارجهيت آنها را تعيين كرده ايد درخواست مي كند.

همه اين كارها در زماني رخ مي دهد كه كت خود را در مي آوريد و براي نوشيدن يك نوشابه به طرف يخچال مي رويد . در عرض چند دقيقه ، تلفن همراه شما بوق مي زند تا به شما اطلاع دهد كه عمليات چاپ يادداشتها تمام شده است .

به طرف چاپگر رفته و يادداشتها را مي خوانيد بلافاصله پس از آن PDA شما بوق مي زند تا به شما بگويد كه دفترچه تلفن و برنامه روزانه شما را Update كرده است و شما ايميل جديد داريد.


به دنياي بلوتوث خوش آمديد :

بلوتوث يك فناوري بي سيم كوتاه برد است كه به تلفنهاي همراه ، PDA ، كامپيوترها ، دستگاههاي ضبط و پخش استريو ، لوازم خانگي ، اتومبيلها و همه وسايل ديگري كه مي توانيد ارتباط آنها را با يكديگر فكر كنيد امكان ارتباط مي دهد .


 

توضيح بلوتوث

بلوتوث يك رشتـه خصوصيت بي سيم است كه ارتباطات كوتاه برد بين وسايل مجهز به تراشه هاي كوچك و اختصاصي بلوتوث را تعريف مي كند.
بلوتوث فقط كابلها را حذف نمي كند ، بلكه يك روش بي سيم براي وصل كردن كامپيوتر ها با همه وسايل همراه الكترونيكي فراهم مي سازد و شبكه هاي كامپيوتري كوچك و خصوصي مشهور به
PAN (Personal Area Network) يا شبكه شخصي را بوجود مي آورد.

بلوتوث يك زبان مشترك بين وسايل مختلف مي سازد كه به آنها امكان مي دهد كه به آساني با هم ارتباط برقرار كنند و بهم وصل شوند.

وسايل مجهز به تراشه هاي بلوتوث حدود 10 متر برد دارند و مي توانند داده ها در سرعت 720 كيلوبايت در ثانيه از طريق ديوار ها ، كيف ها و پوشاك انتقال دهند.
هيجان انگيزتر آنكه اتصال دادن بين وسايل بلوتوث مي تواند بدون دخالت مستقيم ما انجام بگيرد.

وقتي دو وسيله مجهز به تراشه هاي بلوتوث نزديك يكديگر مي رسند ، نرم افزار نهاده شده در تراشه هاي فرستنده / گيرنده (Server / Client) بلوتوث به طور خودكار يك ارتباط را برقرار مي سازد و داده ها را نقل و انتقال مي دهد.
با اين همه برد كوتاه و سرعت محدود بلوتوث باعث شده است كه براي شبكه هاي محلي (
LAN) بي سيم مرسوم كمتر باشد، چون اين شبكه هاي كامپيوتري معمولاً بيش از 10 متري بلوتوث فاصله دارند و برد سرعتي آنها 10 تا 100 متر مگابايت در ثانيه است.

تاريخچه بلوتوث

فكر اوليه بلوتوث در شركت موبايل اريكسون در سال 1994 شكل گرفت.
اريكسون كه يك شركت سوئدي ارتباطات راه دور است – در آن زمان در حال ساخت يك ارتباط راديويي كم مصرف ، كم هزينه بين تلفن هاي همراه و يك گوشي بي سيم بود.

كار مهندسي در سال 1995 شروع شد و فكر اوليه به فراتر از تلفنهاي همراه و گوشي هاي آنها توسعه يافت تا شامل همه انواع وسايل همراه شود ، با هدف ساخت شبكه هاي شخصي كوچك از وسايل مختلف در طول اين زمان ، اريكسون نام “بلوتوث” (يك پادشاه دانماركي) گرفت كه بين سالهاي 940 و 981 ميلادي مي زيست.
شاهِ هارالد در دوره حكومت خود كه يك وايكينگ بود – به طور صلح آميز ، دانمارك ، سوئد جنوبي و نروژ شمالي را متحد كرد.

اين كار به او شهرت يك پادشاه ماهر در ارتباط و مذاكره را در تاريخ داد.
براي اريكسون ، اسم بلوتوث براي فناوري داده شده كه اميدوار بود بتواند به طور صلح آميز وسايل مختلف را متحد كند، مناسب بود.

اريكسون مي دانست كه اگر فقط يك شركت اين استاندارد ها را حمايت كند هرگز موفق نخواهد شد.

در سال 1998 ، اريكسون يك موافقت نامه با IBM ، اينتل ،نوكيا ، 3com ، توشيبا و مايكروسافت امضا كرد و گروه Bluetooth SIG ( Bluetooth Special InterestGroup) را به وجود آورد.

هدف اين گروه نظارت بر پيشرفت بلوتوث و عمومي ساختن آن بود.

بلوتوث چگونه كار مي كند ؟

يكي از جالب ترين نكات درباره اين استاندارد روشي است كه وسايل مجهز به تراشه هاي بلوتوث به طور خودكار يكديگر را تشخيص مي دهند ، ارتباط برقرار مي كنند و داده ها را به دستور شما يا بدون دخالت شما انتقال مي دهند.

در خصوصيات بلوتوث يك ارتباط راديويي با برد كوتاه تعريف شده است.
اين استاندارد هم چنين يك برد متوسط 100 متري را تعريف كرده است ، اما به ندرت به كار مي رود ، چون به توان التريكي و هزينه بيشتري نياز دارد.

هر وسيله بلوتوث حاوي يك تراشه فرستنده / گيرنده مربعي 4 سانتيمتري است كه در باند فركانس راديويي ISM (Industrial Scientific Medical ) يا صنعتي ، علمي ، پزشكي از 40/2 گيگاهرتز تا 48/2 گيگاهرتز عمل مي كند.

سازندگان و طراحان اين فركانس را بدين لحاظ انتخاب كردند كه در سراسر جهان به رايگان در دسترس است و محدوديتهاي داشتن مجوز را ندارند .

باند ISM به 79 كانال تقسيم مي شود كه هر كدام پهناي باند يك مگاهرتزي دارند كه اين باند رايگان است .

بلوتوث از لحاظ نظري پهناي باند يك مگابايت در ثانيه را دارد ، كه سرعتي نزديك به 723 كيلوبيت در ثانيه است.

اين سرعت خيلي بالا نيست ، اما براي انتقال داده ها بين وسايل دستي و دسترسي به اينترنت كاملاً كافي است.

چه كسي Bluetooth تلفن شما را كنترل مي كند؟

محققان روش جديدي را ابداع كردند كه مي تواند به مبايل شما حمله كنند حتي اگر نرم افزارهاي امنيتي مبايل شما روشن باشد.اجراي اين تكنيك شبيه تكنيكي هست كه سال پيش توسط يك شركت امنيتي به نام oil white house توزيع شد. اين تكنيك به attacker اجازه مي دهد كه به بلتوس يك تلفن وصل شود و بدون اجازه خواستن در هنگامي كه ارتباط برقرار مي شود حمله كننده مي تواندتلفن شما را هدف قرار دهد و به اطلاعات مبايل شما دسترسي داشته باشد و حتي اگر شخص مبايل خودش را به يك Device ديگر وصل كند شخص حمله كننده بر اطلاعات رد و بدل شده كنترل كامل خواهد داشت. روش اصلي و معمول براي وصل شدن به يك Device از حمله كننده استفاده از يك Pin كه مي خواهد كه باعث زوج شدن دو دستگاه شود، مي باشد. روش هاي قبلي مدتي طول مي كشد كه حمله كننده بتواند Device pin هدف را پيدا كند كه اين زمان بسته به تعداد كراكتري كه شخص به عنوان Pin تعيين كرده متغير است. ولي روش جديد اجرا شده فقط 6 % تا 3 % ثانيه براي 4 تا digit طول مي كشد.

3-
whilehouse به دارندگان تلفن همراه توصيه مي كند يك چيت با حداكثر تعداد كراكتر انتخاب كنند مثلا بر اساس اين روش جديد يك pin 6 رقمي كه فقط 10 ثانيه براي حمله كننده زمان طول مي كشد كه آن را crack كند ولي يك 10 رقمي شايد يك هفته طول بكشد تا بشه ان را پيدا كرد. ولي شايد بعضي از تلفن ها اجازه انتخاب بيشتر از 4 رقم را به user ندهند.

منبع : سايت علمی و پژوهشي آسمان--صفحه اینستاگرام ما را دنبال کنید
اين مطلب در تاريخ: یکشنبه 02 فروردین 1394 ساعت: 11:26 منتشر شده است
برچسب ها : ,,,
نظرات(0)

ليست صفحات

تعداد صفحات : 824

شبکه اجتماعی ما

   
     

موضوعات

پيوندهاي روزانه

تبلیغات در سایت

پیج اینستاگرام ما را دنبال کنید :

فرم های  ارزشیابی معلمان ۱۴۰۲

با اطمینان خرید کنید

پشتیبان سایت همیشه در خدمت شماست.

 سامانه خرید و امن این سایت از همه  لحاظ مطمئن می باشد . یکی از مزیت های این سایت دیدن بیشتر فایل های پی دی اف قبل از خرید می باشد که شما می توانید در صورت پسندیدن فایل را خریداری نمائید .تمامی فایل ها بعد از خرید مستقیما دانلود می شوند و همچنین به ایمیل شما نیز فرستاده می شود . و شما با هرکارت بانکی که رمز دوم داشته باشید می توانید از سامانه بانک سامان یا ملت خرید نمائید . و بازهم اگر بعد از خرید موفق به هردلیلی نتوانستیدفایل را دریافت کنید نام فایل را به شماره همراه   09159886819  در تلگرام ، شاد ، ایتا و یا واتساپ ارسال نمائید، در سریعترین زمان فایل برای شما  فرستاده می شود .

درباره ما

آدرس خراسان شمالی - اسفراین - سایت علمی و پژوهشی آسمان -کافی نت آسمان - هدف از راه اندازی این سایت ارائه خدمات مناسب علمی و پژوهشی و با قیمت های مناسب به فرهنگیان و دانشجویان و دانش آموزان گرامی می باشد .این سایت دارای بیشتر از 12000 تحقیق رایگان نیز می باشد .که براحتی مورد استفاده قرار می گیرد .پشتیبانی سایت : 09159886819-09338737025 - صارمی سایت علمی و پژوهشی آسمان , اقدام پژوهی, گزارش تخصصی درس پژوهی , تحقیق تجربیات دبیران , پروژه آماری و spss , طرح درس