Sun’iy intellekt va neyron to’rli texnologiyalar



Yüklə 60,25 Kb.
səhifə1/9
tarix07.01.2024
ölçüsü60,25 Kb.
#204622
  1   2   3   4   5   6   7   8   9
Akbarov Sardorbekning Sun’iy intellekt va neyron to’rli texnolo-www.fayllar.org


Akbarov Sardorbekning "Sun’iy intellekt va neyron to’rli texnologiyalar"

Farg’ona Davlat universiteti


Matematika-informatika fakulteti
Amaliy matematika yo’nalishi
K20.122 Guruh talabasi
Akbarov Sardorbekning
“Sun’iy intellekt va neyron to’rli texnologiyalar”
fanidan yozgan
Mustaqil ishi

Topshirdi: Akbarov Sardorbek

Tekshirdi: Anorqulov Maqsadjon


Ko’p qatlamli neyron to’rlar.
Reja:

  1. Ko’p qatlamli neyron to’rlar.


  2. Teskari bog’lanishli to’rlar.


  3. Ikki qatlamli neyron to’ri.



Neyron guruhi qatlam hosil qiluvchi sodda neyron to’ri 1.6-rasmda ko’rsatilgan. Izohlab o’tish kerakki, chap tomondagi qirra-aylanalar faqat kiruvchi signallarni taqsimlash uchun xizmat qiladi. Ular birorta hisoblash amallarini bajarmaydi va shu sababli qatlam hisoblanmaydi. Hisoblash amallarini bajaruvchi neyronlar to’rtburchaklar bilan belgilangan. X kiruvchi to’plamdagi har bir yelement alohida vazn bilan har bir neyron bilan bog’langan. O’z navbatida har bir neyron kiruvchi qiymatlar «sozlangan» yig’indisini chiqaradi. Rasm 1.6. Bir qatlamli neyron

Rasm 1.6. Bir qatlamli neyron to’ri


Vaznlarni W matrisa yelementlari sifatida qarash o’ng’aydir. Matrisa m satr va n ustunga yega bo’lib, m –kirishlar soni, n-neyronlar soni. Masalan, wi,j – bu uchinchi kirishni ikkinchi neyron bilan bog’lovchi vazndir. Shunday qilib, kompoyentalari neyronlarning OUT bo’lgan chiquvchi N vektorni hisoblashni matrisali ko’paytma N = XW sifatida keltirish mumkin, N va X –satr-vektorlar. Bir qatlamli neyron to’rlari masala yechimi sifatida «g’olib barchasiga yega» prinsipi keng qo’llaniladi. Bu prinsip mohiyati quyidagicha: kiruvchi X uchun birinchi qatlamdagi qaysi neyron maksimum (minimum) qiymat qabul qilsa, o’sha neyron qayta-ishlanayotgan obektni o’ziga «tortgan» hisoblanadi. Mazkur neyronning barcha xossalari ayni shu obektga ham tegishli bo’ladi, masalan qatlam neyronlari sinflar vakillari sifatida qaralsa, o’ziga tortgan neyron (obekt) qaysi sinfga tegishli bo’lsa, noma’lum (yangi) obekt ham shu sinfga tegishli bo’ladi va hakoza. Maksimumlik prinsipi bo’yicha amal qiladigan bir qatlamli sun’iy neyron to’ri 1.7- rasmda keltirilgan.

Rasm 1.7. Maksimumlik prinsipida amal qiluvchi bir qatlamli sun’iy neyron to’ri Hajm jihatdan katta va murakkab neyron to’rlari, odatda, mos ravishda katta hisoblash imkoniyatlariga yega. Garchi neyronning juda ko’p tuzilishlari yaratilgan 13 bo’lsa ham ko’p qatlamli neyron to’rlari miyaning ayrim qatlamli bo’laklarini nusxasidir. Bunday to’rlar bir qatlamli neyronlarga nisbatan o’rganish sig’imi kengroq hisoblanadi va hozirda uo’p qatlamli to’rlarni o’rgatish algoritmlarining bir qancha turlari yaratilgan. Shu o’rinda, qayd yetib o’tish zarurki, hozirda soha olimlari tomonidan bir va ko’p qatlamli neyron to’rlarining o’zaro yekivivalentligi matematik tarzda isbot qilingan

Rasm 1.8. Ikki qatlamli neyron to’ri.
Ko’p qatlamli neyron to’rlari qatlamlar kaskadi bilan hosil bo’lishi mumkin. Bir qatlam chiqishi keyingi qatlam uchun kirish bo’ladi. Bunday neyron turi 1.8- rasmda keltirilgan. Teskari bog’lanishli to’rlar. Yuqorida ko’rilgan to’rlarda teskari bog’lanishlar yo’q yedi, ya’ni qandaydir qatlamning chiqishidan chiqib, xuddi shu qatlam yoki oldingi qatlamlar kirishiga boruvchi bog’lanishlar yo’q yedi. Bunday to’rlar to’g’ri tarqaluvchi to’rlar sinfini tashkil qiladi va ular katta qiziqish uyg’otadi va juda keng ravishda qo’llaniladi. Chiqishlarida kirishlariga bog’lanish bo’lgan to’rlar teskari bog’lanishli to’rlar deyiladi. Teskari bog’lanishlari bo’lmagan to’rlarda xotira yo’q, ularning chiqishi faqat ayni paytgai kirishlar va vaznlar bilan aniqlanadi. Ayrim ko’rinishdagi teskari bog’lanishli neyron to’rlarida chiqish qiymatlari kirishga qaytariladi, oqibatda chiqish ayni paytdagi kirish va oldingi chiqish bilan aniqlanadi. 14 Shu sababli teskari bog’lanishli to’rlar inson miyasining qisqa muddatli xotirasi xossalariga o’xshash xossalarga yega bo’ladi. To’r chiqishlari qisman oldingi kirishlarga bog’liq bo’ladi.
Neyron tarmoqlari har doim ham rejalashtirilganidek ishlamaydi. O'quv ma'lumotlari va tarozilarning boshlang'ich qiymatlarini rejalashtirish, shuningdek chiqish qiymatlarini rejalashtirish kerak. Neyron tarmog'ining rejadan tashqari ishlashiga ta'sir qiluvchi va ushbu ishda ko'rib chiqiladigan omillar.Umumiy muammo-bu tarmoqning to'yinganligi. Agar signallarning katta qiymatlari mavjud bo'lsa, ko'pincha katta boshlang'ich vazn koeffitsientlari tomonidan qo'zg'atilsa paydo bo'ladi. Shunday qilib, signallar faollashtirish funktsiyasining gradienti nolga yaqin bo'lgan hududga tushadi. Bu, o'z navbatida, o'rganish qobiliyatiga, ya'ni eng yaxshi koeffitsientlarni tanlashga ta'sir qiladi.Agar siz faollashtirish funktsiyasi sifatida foydalansangiz — sigmoid, keyin kirish ma'lumotlari juda katta bo'lsa, chiziq to'g'ri chiziqqa o'xshaydi. Shuning uchun kichik qiymatlarni belgilash tavsiya etiladi. Shu bilan birga, juda kichik qiymatlar ham o'rganishga yomon ta'sir qiladi, chunki kompyuter hisoblashining aniqligi pasayadi. Shuning uchun 0.0 dan 1.0 gacha bo'lgan kirish qiymatlarini tanlash tavsiya etiladi. Bunday holda siz 0.01 ga teng ofsetni kiritishingiz mumkin. [2, c. 124]. 1-rasmda shuni ko'rsatadiki, kirish ma'lumotlarining ko'payishi bilan neyron tarmoqning o'rganish qobiliyati pasayadi, chunki sigmoid deyarli to'g'rilanadi.

Shakl: 1. Kirish ma'lumotlarini tayyorlash


2.Chiqish qiymatlari
Chiqish qiymatlari tanlangan faollashtirish funktsiyasiga qarab tanlanishi kerak. Agar u 1.0 dan yuqori qiymatlarni ta'minlay olmasa, lekin biz chiqish qiymatlarini 1.0 dan ortiq olishni istasak, unda vaziyatga moslashish uchun vazn koeffitsientlari oshadi. Ammo hech narsa chiqmaydi, chiqish qiymatlari hali ham faollashtirish funktsiyasining maksimal qiymatidan katta bo'lmaydi. Shuning uchun chiqish qiymatlari 0.0 dan 1.0 gacha bo'lishi kerak. Chegara qiymatlariga erishilmaganligi sababli, 0.01 dan 0.99 gacha bo'lgan qiymatlarni tanlash tavsiya etiladi. Shaklda. 2 ushbu qoida namoyish etildi.

Shakl: 2 Chiqish qiymatlari chegarasi


Tasodifiy boshlang'ich vazn qiymatlari
Og'irlik koeffitsientlarining boshlang'ich qiymatlarini tanlashning eng oson varianti ularni -1.0 dan +1.0 gacha bo'lgan diapazondan tanlashdir. Ammo tarmoq konfiguratsiyasiga qarab koeffitsientlarni aniqlashga imkon beradigan yondashuvlar mavjud. Maqsad shundaki, agar tarmoq tuguniga ko'plab signallar kirsa va ularning xatti-harakatlari ma'lum bo'lsa, unda vazn koeffitsientlari ularning holatini buzmasligi kerak. Ya'ni, og'irliklar 1 va 2-bandlarda tavsiflangan kirish va chiqish qiymatlarini puxta tayyorlashni buzmasligi kerak.Agar qoidani taxminan tasvirlab beradigan bo'lsak, unda shunday bo'ladi: "og'irlik koeffitsientlari tasodifiy diapazondan tanlangan raqamlar bilan boshlanadi, ular tugunga olib boradigan bog'lanishlar sonining kvadrat ildizining o'zaro bog'liqligi bilan belgilanadi"

Shakl: 3. Vazn koeffitsientlarini tanlashga yondashuvlar.


Bir xil vaznni o'rnatmaslik tavsiya etiladi. Shunday qilib, tugunlarga bir xil signallar keladi va chiqish qiymatlari bir xil bo'ladi. Va tarozi yangilangandan so'ng, ularning qiymatlari hali ham teng bo'ladi. Bundan tashqari, vazn koeffitsientlari uchun nol qiymatlarni belgilash mumkin emas, chunki bu holda kirish qiymatlari "kuchini yo'qotadi".

Yüklə 60,25 Kb.

Dostları ilə paylaş:
  1   2   3   4   5   6   7   8   9




Verilənlər bazası müəlliflik hüququ ilə müdafiə olunur ©www.azkurs.org 2024
rəhbərliyinə müraciət

gir | qeydiyyatdan keç
    Ana səhifə


yükləyin