tÜrkİye cumhurİyetİ Çukurova Ünİversİtesİ …library.cu.edu.tr/tezler/8728.pdf · ii...

65
TÜRKİYE CUMHURİYETİ ÇUKUROVA ÜNİVERSİTESİ SOSYAL BİLİMLER ENSTİTÜSÜ EKONOMETRİ ANABİLİM DALI TEMEL BİLEŞENLER FAKTÖR ANALİZİNE DAYALI YAPAY SİNİR AĞLARI MODELLERİ İLE İMKB 100 ENDEKS GETİRİLERİNİN TAHMİNİ ZUHAT ERGİN YÜKSEK LİSANS TEZİ ADANA/2012

Upload: hoangquynh

Post on 25-Aug-2018

220 views

Category:

Documents


0 download

TRANSCRIPT

TÜRKİYE CUMHURİYETİ

ÇUKUROVA ÜNİVERSİTESİ

SOSYAL BİLİMLER ENSTİTÜSÜ

EKONOMETRİ ANABİLİM DALI

TEMEL BİLEŞENLER FAKTÖR ANALİZİNE DAYALI YAPAY SİNİR AĞLARI MODELLERİ İLE İMKB 100 ENDEKS GETİRİLERİNİN TAHMİNİ

ZUHAT ERGİN

YÜKSEK LİSANS TEZİ

ADANA/2012

TÜRKİYE CUMHURİYETİ

ÇUKUROVA ÜNİVERSİTESİ

SOSYAL BİLİMLER ENSTİTÜSÜ

EKONOMETRİ ANABİLİM DALI

TEMEL BİLEŞENLER FAKTÖR ANALİZİNE DAYALI YAPAY SİNİR AĞLARI MODELLERİ İLE İMKB 100 ENDEKS GETİRİLERİNİN TAHMİNİ

ZUHAT ERGİN

Danışman: Doç. Dr. Süleyman Bilgin KILIÇ

YÜKSEK LİSANS TEZİ

ADANA/2012

Çukurova Üniversitesi Sosyal Bilimler Enstitüsü Müdürlüğüne;

Bu çalışma, jürimiz tarafından Ekonometri Anabilim Dalında YÜKSEK LİSANS TEZİ olarak kabul edilmiştir.

Başkan: Doç. Dr. Süleyman Bilgin KILIÇ (Danışman)

Üye: Doç. Dr. M. Fatih CİN

Üye: Yrd. Doç. Dr. Ersin KIRAL

ONAY

Yukarıdaki imzaların, adı geçen öğretim elemanlarına ait olduklarını onaylıyorum.

…./…./2012

Prof. Dr. Azmi YALÇIN

Enstitü Müdürü

NOT: Bu tezde kullanılan ve başka kaynaktan yapılan bildirişlerin, çizelge, şekil ve

fotoğrafların kaynak gösterilmeden kullanımı, 5846 Sayılı Fikir ve Sanat Eserleri

Kanunu’ndaki hükümlere tabidir.

i

ÖZET

TEMEL BİLEŞENLER FAKTÖR ANALİZİNE DAYALI YAPAY SİNİR AĞLARI MODELLERİ İLE İMKB 100 ENDEKS GETİRİLERİNİN TAHMİNİ

Zuhat ERGİN

Yüksek Lisans Tezi, Ekonometri Anabilim Dalı

Danışman: Doç. Dr. Süleyman Bilgin KILIÇ

Temmuz 2012, 53 sayfa

Bu çalışmada amaç, temel bileşen faktör analizine dayalı yapay sinir ağları

modelleri ile İMKB 100 endeksinin getirisi tahmin edilmeye çalışılmıştır. Bu çalışmada

02.01.1997-30.12.2011 tarihleri arasındaki İMKB 100 endeksi günlük getirileri

kullanılarak yarınki getiri tahmin edilmeye çalışılmıştır. Çalışma beş bölümden

oluşmaktadır. Birinci bölümde çalışmanın amacı, önemi ve yöntemi hakkında bilgi

verilmiştir. İkinci bölümde yapay sinir ağlarının yapısı, temel elemanları, avantajları,

dezavantajları, uygulama alanları, katmanları, sınıflandırılması ve işleyişi hakkında bilgi

verilmiştir. Üçüncü bölümde temel bileşen faktör analizinin aşamaları ile ilgili

hesaplamalara yer verilmiştir. Dördüncü bölümde uygulamaya yer verilmiştir. Son

bölümde ise uygulamada tahmin edilen modele ve bunun üzerine yapılan yorumlara yer

verilmiştir.

Anahtar Kelimeler: Yapay Sinir Ağı, Temel Bileşen Faktör Analizi, Getiri Tahmini

ii

ABSTRACT

PREDICTION OF ISE 100 INDEX RETURNS BY ARTIFICIAL NEURAL NETWORK MODEL BASED ON PRINCIPAL COMPONENT FACTOR

ANALYSIS

Zuhat ERGİN

Master Thesis, Department of Econometrics

Supervisor: Doç. Dr. Süleyman Bilgin KILIÇ

July 2012, 53 Pages

In this study, ISE 100 index return is estimated by using Artificial Neural

Network model based on the Principal Component Factor Analysis. The data covers the

period of 02.01.1997-30.12.2011 and consist of the daily returns of ISE 100 index,

Dollar and Gold prices. The study consists of five sections. In the first section, we

describe the purpose of study, method and about the importance of study. In the second

section, we describe the basic elements of Artificial Neural Network model. In the third

section, we describe the Principal Component Factor Analysis. In the fourth section,

application are given, and finally in the fifth section we give the empirical results of the

study and conclusion.

Keywords: Artificial Neural Networks, Principal Component Factor Analysis, Estimate Return

iii

ÖNSÖZ

Bu tez çalışmasında beni yönlendiren, her türlü eksikliklerimi tamamlayan ve

araştırmalarımda bana her zaman yol gösteren Danışman Hocam Doç. Dr. Süleyman

Bilgin KILIÇ’a ve eğitim hayatım boyunca maddi ve manevi desteklerini esirgemeyen

aileme ve dostlarıma sonsuz teşekkürlerimi ve saygılarımı sunarım.

Zuhat ERGİN

iv

İÇİNDEKİLER

Sayfa

ÖZET……………………………………………………………………….…………....i

ABSTRACT …………………………………………………………………………....ii

ÖNSÖZ…………………………………………………………….…………………...iii

KISALTMALAR LİSTESİ……………………………………….……………….....vii

TABLOLAR LİSTESİ……………………………………….…….………………...viii

ŞEKİLLER LİSTESİ………………………………………………………….….…...ix

I. BÖLÜM

GİRİŞ

1.1. Çalışmanın Amacı …………………………………………………………………..2

1.2. Çalışmanın Önemi ve Yöntemi……………………………………………………...2

1.3. Çalışmanın Sınırlılıkları……………………………………………………………..3

II. BÖLÜM

YAPAY SİNİR AĞLARI

2.1. Biyolojik Sinir Hücresi………………………………………….…………….…….4

2.2. Yapay Sinir Hücresi…………………………………………………………….…...5

2.3. Yapay Sinir Ağlarının Temel Elemanları………………………….………………..6

2.3.1. Girdiler……………………………………………………………………..….6

2.3.2. Ağırlıklar……………………………………………………………………...6

2.3.3. Toplam Fonksiyonu…………………………………………………………...6

2.3.4. Aktivasyon Fonksiyonu………………………………………………….…....8

2.3.5. Hücrenin Çıktısı……………………………………………………………...13

2.4. Yapay Sinir Ağlarının Avantajları ve Dezavantajları……………………………...14

2.4.1. Yapay Sinir Ağlarının Avantajları…………………………………………...14

2.4.2. . Yapay Sinir Ağlarının Dezavantajları……………………………………...16

2.5. Yapay Sinir Ağlarının Uygulama Alanları………………………………………...16

2.6. Yapay Sinir Ağlarının Katmanları……………………………………….………...18

v

2.6.1. Girdi Katmanı…………………………………………………………….….18

2.6.2. Gizli Katman………………………………………………………………....18

2.6.3. Çıktı Katmanı………………………………………………………………..18

2.7. Yapay Sinir Ağlarının Sınıflandırılması…………………………………………...19

2.7.1. İleri Beslemeli Yapay Sinir Ağı……………………………………………..19

2.7.2. Geri Beslemeli Yapay Sinir Ağı…………………………………………......20

2.8. Yapay Sinir Ağları Mimarileri…………………………………………………….21

2.8.1. Tek Katmanlı Yapay Sinir Ağı……………………………………………....21

2.8.2. Çok Katmanlı Yapay Sinir Ağı……………………………………………...22

2.8.3. Geri Beslemeli Yapay Sinir Ağı……………………………………………..22

2.8.4. Kafes Yapılı Yapay Sinir Ağı………………………………………………..23

2.9. Yapay Sinir Ağlarında Öğrenme…………………………………………………..24

2.9.1. Danışmanlı Öğrenme………………………………………………………...25

2.9.2. Danışmansız Öğrenme…………………………………………………….....26

2.9.3. Takviyeli Öğrenme…………………………………………………………..26

2.10.Yapay Sinir Ağlarında Öğrenme Kuralları………………………………………..27

2.10.1. Hebb Kuralı………………………………………………………………..27

2.10.2. Hopfield Kuralı…………………………………………………………….28

2.10.3. Delta Kuralı………………………………………………………………..28

2.10.4. Kohonen Kuralı……………………………………………………………28

2.10.5. Gradyan İniş Kuralı………………………………………………………..29

2.10.5.1. Geri Yayılım………………………………………………………29

2.10.5.2. Yakınsama Kriteri…………………………………………………30

III. BÖLÜM

TEMEL BİLEŞEN FAKTÖR ANALİZİ

3.1. Temel Bileşen Faktör Analizinin Aşamaları………………………………………31

3.1.1. Değişkenlerin Standart Hale Dönüştürülmesi….…………………………...31

3.1.2. Varyans-Kovaryans (Korelasyon) Matrisinin Hesaplanması………………32

3.1.3. Korelasyon Matrisine Ait Özdeğerlerin ve Özvektörlerin Hesaplanması…..32

3.1.4. Özdeğerler ve Özvektörler Kullanılarak Faktör Yükleri Matrisinin

Hesaplanması…………………………………………………………..…....33

vi

3.1.5. Temel Bileşenlerin Hesaplanması…………………………………………..33

3.1.6. Regresyon Yöntemi İle Faktör Skorları Matrisinin Hesaplanması…………34

3.1.6.1. Faktör Skorları Katsayı Matrisinin Hesaplanması………………….34

3.1.6.2. Faktör Skorları Matrisinin Hesaplanması…………………………...34

IV. BÖLÜM

UYGULAMA

4.1. Örnek ve değişkenlerin Seçimi…………………………………………………….35

4.2. Temel Bileşen Faktör Analizi (TBFA) Uygulaması………………………….……36

4.3.Yapay Sinir Ağı (YSA) Uygulaması………………………………………….……42

V. BÖLÜM

SONUÇ VE ÖNERİLER

5.1. Sonuç ve Öneriler......……………………...………………………………….…...48

KAYNAKÇA……………………………………………………………….…….……49

ÖZGEÇMİŞ………………………………………………………………….………..53

vii

KISALTMALAR LİSTESİ

YSA: Yapay Sinir Ağı

ADALINE: Adaptif Lineer Nöron (Adaptive Linear Neuron)

MADALINE: Çoklu Adaptif Lineer Nöron (Multiple Addaline)

TBFA: Temel Bileşen Faktör Analizi

İMKB: İstanbul Menkul Kıymetler Borsası

viii

TABLOLAR LİSTESİ

Sayfa

Tablo 1: Toplam Fonksiyon Örnekleri………………………………………...……......8

Tablo 2: Değişkenlere Ait Korelasyon Matrisi………………………………………...37

Tablo 3: Özdeğerler ve Toplam Varyansın Faktörler Tarafından Açıklanan Kısmı…..38

Tablo 4: Faktör Yükleri Matrisi……………………………………………...….……..39

Tablo 5: Faktör Skorları Katsayıları Matrisi………………………………...…….…..40

Tablo 6: Faktörler ve Faktör Yükleri……………………………………………….….41

Tablo 7: Nöronlar Arasındaki Bağlantı Ağırlıkları…………………………...…….…45

Tablo 8: Sınıflandırma Başarısı (imkbort)……………..……………………..…….….46

Tablo 9: Sınıflandırma Başarısı (dolarort)…………….…………...……………….….47

Tablo 10: Sınıflandırma Başarısı (altınort)……………………………..……………...47

ix

ŞEKİLLER LİSTESİ

Sayfa

Şekil 1: Biyolojik sinir Hücresi……………………………………………………….…4

Şekil 2: Yapay Sinir Hücresi………………………………………………………….…5

Şekil 3: Doğrusal Fonksiyon………………………………………………………….…9

Şekil 4: Basamak Fonksiyon…………………………………………………………...10

Şekil 5: Tek Kutuplamalı Basamak Fonksiyon………………………………………...11

Şekil 6: Çift Kutuplamalı Basamak Fonksiyon………………………………………...11

Şekil 7: Parçalı Doğrusal Fonksiyon…………………………………………………...12

Şekil 8: Sigmoid Fonksiyon…………………………………………………...…….…12

Şekil 9: Tanjant Hiperbolik Fonksiyon……………………………………...………....13

Şekil 10: Sinüs Fonksiyonu………………………………………………………….…13

Şekil 11: Yapay Sinir Ağlarındaki Katmanlar………………………...…………….…19

Şekil 12: İleri Beslemeli Yapay Sinir Ağı……………………………………………...20

Şekil 13: Geri Beslemeli Yapay Sinir Ağı……………………………………………..21

Şekil 14: Tek Katmanlı Yapay Sinir Ağı……………………………………………....22

Şekil 15: Çok Katmanlı Yapay Sinir Ağı……………………………………………....22

Şekil 16: Geri Beslemeli Yapay Sinir Ağı……………………………………………..23

Şekil 17: Kafes Yapılı Yapay Sinir Ağı…………………………………………….….23

Şekil 18: Danışmanlı Öğrenme Yapısı………………………………………………....25

Şekil 19: Danışmansız Öğrenme Yapısı…………...……………………………….….26

Şekil 20: Yakınsama Kriteri……………………...……………………………….……30

Şekil 21: Yapay Sinir Ağı Mimarisi…………….…………………………………..….44

1

I. BÖLÜM

GİRİŞ

Yapay Sinir Ağları (YSA), beynin fizyolojisinden yararlanılarak oluşturulan

bilgi işleme modelleridir. Literatürde 100’den fazla yapay sinir ağı modeli vardır. Bazı

bilim adamları, beynimizin güçlü düşünme, hatırlama ve problem çözme yeteneklerini

bilgisayara aktarmaya çalışmışlardır. Bazı araştırmacılar ise, beynin fonksiyonlarını

kısmen yerine getiren birçok model oluşturmaya çalışmışlardır.

YSA’ların öğrenme özelliği, araştırmacıların dikkatini çeken en önemli

özelliklerden birisidir. Çünkü herhangi bir olay hakkında girdi ve çıktılar arasındaki

ilişkiyi, doğrusal olsun veya olmasın, elde bulunan mevcut örneklerden öğrenerek daha

önce hiç görülmemiş olayları, önceki örneklerden çağrışım yaparak ilgili olaya

çözümler üretebilme özelliği YSA’lardaki zeki davranışın da temelini teşkil eder.

1943 yılında bir nörobiyolojist olan Warren McCulloch ve bir istatistikçi olan

Walter Pitts, “Sinir Aktivitesindeki Düşüncelere Ait Bir Mantıksal Hesap” başlıklı bir

makale ile ilk dijital bilgisayarlara ışık tutmuştur. John Von Neumann bu makaleyi,

“elektronik beyinler” için bir kopya olarak görmüştür. Yapay zeka alanındaki

araştırmacılar içerisinde istisnai bir yeri olan Marvin Minsky, bu makaleden aldığı

ilhamla makroskobik zeka fikrini ortaya atmış ve uzman sistemlerin doğmasına neden

olmuştur. Bronx Yüksek Bilim Okulu’ndan Frank Rosenblatt, gözün hesaplamaları ile

ilgilenmiştir. Bu bilim adamları, öğrenmenin ve zekanın herhangi bir özelliğinin

simülasyonunda bilgisayarların aktif olarak nasıl kullanılabileceğini, 1956 yılında

düzenlemiş oldukları ilk yapay zeka konferansında tartışmışlardır (Saraç, 2004, s.9).

1959’da, Stanford Üniversitesinden Bernard Widrow, basit nöron benzeri

elemanlara dayanan ve “adaline” (Adaptive Linear Neuron) olarak adlandırılan bir

adaptif lineer elemanı geliştirmiştir. Adaline ve iki tabakalı biçimi olan “madaline”

(Multiple Adaline); ses tanıma, karakter tanıma, hava tahmini ve adaptif kontrol gibi

çok çeşitli uygulamalar için kullanılmıştır. Daha sonraları adaline, ayrık bir çıkış yerine

sürekli bir çıkış üretmek için geliştirilmiştir. Widrow, telefon hatları üzerindeki ekoları

elimine etmeye yarayan adaptif filtreleri geliştirmede, adaptif lineer eleman

algoritmasını kullanmıştır. Bununla ilk defa YSA’lar gerçek bir probleme uygulanmıştır

(Kıraç, 2011, s.15).

Helsinki Teknik Üniversitesi’nden Teuvo Kohonen 1970’lerin ilk yıllarında

adaptif öğrenme ve birleşik hafızalar üzerine temel çalışmalar yapmış ve bu olduğu

çalışmaları ile danışmansız öğrenme metotlarının gelişmesine ışık tutmuştur.

2

Minsky ve Papert’in perseptron isimli kitaplarında, YSA’nın temel olarak ilgi

çekici konular olmadığını belirtmeleri birçok araştırmacının bu alanda çalışmaktan

vazgeçmelerine sebebiyet vermiştir. YSA konusunda çalışmaya devam eden Grossberg,

YSA modellerini yapılandırmak için nörolojik verinin kullanılması, algı ve hafıza için

YSA tabanlı mekanizmaların önerilmesi, belirgin eşitliklerle bütünleşen bir sinaptik

model için bir ilişkilendirici kural üzerinde çalışmıştır.

1982 yılında ilgi çeken bir başka gelişme, moleküler biyolojiden beyin

kuramcılığına geçiş yapan bir model Caltech fizikçisi Hopfield tarafından sunulmuştur.

Kendi adıyla anılan bir ağ yapısı mevcuttur ve birçok alana uygulanmıştır (Batar, 2005,

s.2).

1987 yılında yapılan ilk yapay sinir ağları sempozyumundan sonra YSA

uygulamaları yaygınlaşmıştır. Günümüzde, YSA’larla ilgili araştırmalar yapan çok

sayıda bilim adamı ve araştırma grupları vardır. Farklı bilim ve ilgi alanlarında çalışan

birçok araştırmacı, birçok yeni gelişmeleri sunmaya devam edeceklerdir.

1.1. Çalışmanın Amacı

Bu çalışmada çok değişkenli istatistiksel yöntem olan temel bileşenler faktör

analizi ile yapay sinir ağları modelinin öngörü gücü birleştirilerek İMKB ulusal 100

endeksi, dolar ve altının endeks getirilerinin ortalamanın altında mı yoksa üstünde mi

olacağı tahmin edilmeye çalışılmıştır.

1.2. Çalışmanın Önemi ve Yöntemi

YSA’lar ile ilgili literatürde borsa tahmini üzerine geleneksel yöntemlerle

gerçekleştirilmiş yurtiçinde ve yurtdışında birçok çalışma mevcuttur. YSA’ların

doğrusal olmayan işlemlerdeki başarısı YSA’ların ekonomi ve finans alanındaki

kullanımı yaygınlaşmaktadır. Buna rağmen YSA’ların kullanıldığı borsayı tahmin etme

çalışmaları henüz yeterli sayıda değildir. Geleneksel tahmin yöntemlerinde; verilerin

doğrusal olmamasından kaynaklanan bazı sorunlar vardır. YSA’lar geleneksel tahmin

yöntemlerinin bu sorunlarını büyük ölçüde telafi edebilirler. Bu çalışmada kullanılan

yöntem; üç temel yatırım aracı olan İMKB 100 endeksi, dolar ve altına ait değişkenler

kullanılarak TBFA yardımı ile daha az sayıda faktöre indirmek ve bu faktörleri Yapay

Sinir Ağı’na girdi olarak kullanılarak yarınki getirilerin ortalama getirinin altında mı

yoksa üstünde mi olacağını tahmin etme şeklindedir.

3

1.3. Çalışmanın Sınırlılıkları

Söz konusu çalışma; 02.01.1997-30.12.2011 tarihleri arasındaki İMKB Ulusal

100 endeksinin günlük getirilerini kullanması, belirlenen tarihler arasındaki günlük

dolar getirisini kullanması ve belirlenen tarihler arasındaki günlük altın getirisini

kullanması ile sınırlıdır.

4

II. BÖLÜM

YAPAY SİNİR AĞLARI

2.1. Biyolojik Sinir Hücresi

İnsanlardaki sinir sistemi sinir adı verilen hücrelerden meydana gelir. Sinirler

canlıların hayati faaliyetlerinin yürütüldüğü en küçük birimlerdir. Bir insanda yaklaşık

olarak tahmini 1010 adet bulunduğu kabul edilen sinirler sadece insan beyninde değil

merkezi sinir sistemi üzerinde tüm vücutta yayılmıştır. Beynin haberleşme sistemini

oluşturan sinirlerin görevleri sinyal alma, işlem yapma ve elektrokimyasal sinyallerin

sinir ağları içinde iletimini sağlamaktır (Şen, 2004, s.8).

Şekil 1 Biyolojik Sinir Hücresi

Kaynak: Saraç, 2004, s.20

Şekil 1 de görüldüğü gibi sinir sistemi yapısal olarak 4 bölümden oluşmaktadır.

Bunlar; dentritler, soma, akson ve sinaps’tır. Temel olarak biyolojik sinir hücresi diğer

kaynaklardan girişleri alır, soma girişleri genelde doğrusal olmayan bir şekilde işler.

Akson işlenmiş girişleri çıkışa aktarır. Sinaps diğer sinirlere çıkışı gönderir (Elmas,

2003, s.30).

Yapay sinir ağları (YSA) yöntemi, teknoloji ve bilimsel çalışmalardaki

uygulamalarda biyolojik sinir sisteminin modellenmesi fikri ile ortaya çıkmıştır. Sinir

sisteminin modellenmesiyle YSA paralel çalışma ve öğrenebilme yetenekleri

bakımından biyolojik sinir sisteminin özelliğini göstermektedir.

5

2.2. Yapay Sinir Hücresi

Biyolojik sinir ağlarının sinir hücreleri olduğu gibi yapay sinir ağlarının da

yapay sinir hücreleri vardır. Yapay sinir hücreleri mühendislik biliminde işlem

elemanları olarak da adlandırılmaktadır (Öztemel, 2006, s.48).

Şekil 2 Yapay Sinir Hücresi

Kaynak: Kaynar, Taştan, Demirkoparan, 2010,s.562

Girdiler ( )1 2, , , nx x xK , diğer hücrelerden ya da dış ortamlardan hücreye giren

bilgilerdir. Bunlar ağın öğrenmesi istenen örnekler tarafından belirlenir. Ağırlıklar

( )1 2, , , nw w wK , girdi kümesi veya kendinden önceki bir tabakadaki başka bir işlem

elemanının bu işlem elemanı üzerindeki etkisini gösteren değerlerdir. Her bir girdi, o

girdiyi işlem elemanına bağlayan ağırlık değeriyle çarpılarak, toplam fonksiyonu

aracılığıyla birleştirilir. Toplam fonksiyonu Denklem 1’de verildiği şekildedir (Kaynar,

Taştan ve Demirkoparan, 2010, s.562).

net= 1

Toplam fonksiyonunda elde edilen değer doğrusal ya da doğrusal olmayan

türevlenebilir bir transfer fonksiyonu ile işlem elemanının değeri aşağıdaki Denklem

2’de verildiği şekilde hesaplanır.

y = f (net) = f 2

Tüm yapay sinir ağları bu temel yapıdan üretilmiştir. Bu yapıdaki farklılıklar

yapay sinir ağlarının farklı sınıflandırılmalarını sağlar. Bir yapay sinirin öğrenme

6

yeteneği, seçilen öğrenme algoritması içerisinde ağırlıkların uygun bir şekilde

ayarlanmasına bağlıdır (Elmas, 2003, s.32).

2.3. Yapay Sinir Ağlarının Temel Elemanları

Biyolojik sinir ağlarının hücreleri olduğu gibi yapay sinir ağlarının da yapay

sinir hücreleri mevcuttur. Yapay sinir hücre elemanlarına işlem elemanı denilmektedir.

İşlem elemanları beş esas elemandan oluşmaktadır. Bunlar; girdiler, ağırlıklar, toplam

fonksiyonu, aktivasyon fonksiyonu ve hücre çıktısıdır.

2.3.1. Girdiler

Bir yapay sinir hücresi birçok bilgiyi dış dünyadan alır ve bu bilgileri işleme tabi

tutar. Gelen bilgiler o sinir hücresi için girdi durumundadır. Girdiler dış dünyadan

olduğu gibi kendinden ya da kendinden önceki bir katmandaki işlem elemanının da

çıkışı olabilir.

2.3.2. Ağırlıklar

Ağırlıklar (w1, w2, …, wi), yapay sinir tarafından alınan girdilerin önemini ve

hücre üzerindeki etkisini belirleyen uygun katsayılardır. Her bir girdi kendine ait bir

ağırlığa sahiptir. Ağırlıklar, her işlem elemanın her girdisi üzerinde etki yapmaktadır.

Yapay sinir ağlarında girdilerin nöronlar arasındaki iletimini sağlayan tüm bağlantıların

farklı ağırlık değerleri bulunmaktadır. Bir yapay sinir ağında ağırlıklar bağlantının önem

derecesini gösterir. Ağırlıkların büyük ya da küçük olması önemli veya önemsiz olması

olduğu anlamına gelmez. Bir ağırlığın değerinin sıfır olması o ağ için en önemli olay

olabilir. Eksi değerler önemsiz demek değildir. Artı ya da eksi olması etkisinin pozitif

veya negatif olduğunu gösterir.

2.3.3. Toplam Fonksiyonu

Toplam fonksiyonunda bir hücreye gelen net girdi hesaplanır. Bu hesaplama için

değişik fonksiyonlar kullanılmaktadır. Yaygın olarak ağırlıklı toplam kullanılmaktadır.

Burada gelen her girdi değeri ile o girdiye ait olan ağırlığın çarpılarak bu çarpımların

toplanmasıdır.

net= 3

7

Ancak bazı uygulamalarda aşağıdaki gibi eşik değeri olan b’ de bu toplama dahil

edilmiştir.

net= ya da net= 4

b eşik değeri girdilerden bağımsız olmasından dolayı bütün girdilerin sıfır

olması durumunda çıktı değerinin sıfır değil de eşik değerine eşit olduğu görülmektedir.

Böylece belirtilen şartlar altında çıktı değerinin sıfır olması zorunluluğu ortadan

kalkmaktadır. Eşik değerinin kullanımı, toplam fonksiyonuna +1 ya da -1 değerine

sahip sabit bir girdinin b ağırlığına sahip bir bağlantı ile eklendiği şeklinde ele alınır

(Efe ve Kaynak, 2000, s.7).

Burada x girdileri w ağırlıkları ve n ise bir hücreye gelen toplam girdi sayısını

göstermektedir. Yapay sinir ağlarında daima bu formülün kullanılması şart değildir.

Uygulanan yapay sinir ağı modellerinden bazıları kullanılacak toplama fonksiyonunu

belirleyebilmektedir. Literatürde yapılan araştırmalarda toplama fonksiyonu olarak

değişik formüllerin kullanıldığı görülmektedir. Tablo 1’de değişik toplam

fonksiyonlarına örnekler verilmektedir. Görüldüğü gibi, bazı durumlarda gelen

girdilerin değeri dikkate alınırken bazı durumlarda ise gelen girdilerin sayısı önemli

olabilmektedir. Bir problem için en uygun toplama fonksiyonunu belirlemek için

bulunmuş bir formül yoktur. Genellikle deneme yanılma yolu ile toplama fonksiyonu

belirlenmektedir. Bir yapay sinir ağında bulunan işlem elemanlarının tamamının aynı

toplama fonksiyonuna sahip olmaları gerekmez. Her işlem elemanı bağımsız olarak

farklı bir toplama fonksiyonuna sahip olabilecekleri gibi hepsi aynı işlem elemanına

sahip olabilir. Hatta ağın bazı işlem elemanları grup halinde aynı toplama fonksiyonuna

sahip olabilir. Diğerleri ise farklı fonksiyonlar kullanabilirler. Bu tamamen tasarımcının

kendi öngörüsüne dayanarak verdiği karara bağlıdır (Öztemel, 2006, s.49-50).

8

Tablo 1

Toplam Fonksiyon Örnekleri

Net giriş Açıklama

Çarpım

Net Girdi =

Ağırlık değerleri girdiler ile çarpılır ve

daha sonra bulunan değerler birbirleri ile

çarpılarak net girdi hesaplanır.

Maksimum

Net Girdi =

N adet girdi içinden ağırlıklar ile

çarpıldıktan sonra en büyüğü yapay sinir

hücresinin net girdisi olarak kabul edilir.

Minimum

Net Girdi =

N adet girdi içinden ağırlıklar ile

çarpıldıktan sonra en küçüğü yapay sinir

hücresinin net girdisi olarak kabul edilir.

Çoğunluk

Net Girdi =

N adet girdi içinden ağırlıklar ile

çarpıldıktan sonra pozitif ve negatif

olanların sayısı bulunur. Büyük olan sayı

hücrenin net girdisi olarak kabul edilir.

Kümülâtif toplam

Net Girdi =

Hücreye gelen bilgiler ağırlıklı olarak

toplanır ve daha önce gelen bilgilere

eklenerek hücrenin net girdisi bulunur.

Kaynak : Ercan Öztemel, Yapay Sinir Ağları, İstanbul: Papatya Yayıncılık, 2006, s.50

2.3.4. Aktivasyon Fonksiyonu

Bir girdi katmanı, bir çıktı katmanı ve bir veya daha fazla sayıda paralel gizli

katmanlardan oluşan yapay sinir hücresinin çıktı değerlerinin aralığının belirlenmesinde

kullanılan fonksiyonlara aktivasyon fonksiyonu denir (Boyacıoğlu ve Kara, 2007

s.211).

Aktivasyon fonksiyonu hücreye gelen net girdiyi işleyerek bu net girdiye

karşılık üreteceği çıktıyı belirler. Aktivasyon fonksiyonunda da toplam fonksiyonunda

olduğu gibi çıktıyı hesaplamak için farklı formüller kullanılmaktadır. Bazı modeller bu

fonksiyonun türevinin alınabilir bir fonksiyon olmasını şart koşmaktadır. Toplam

fonksiyonunda olduğu gibi aktivasyon fonksiyonunda da ağın işlem elemanlarının

hepsinin aynı fonksiyonu kullanması gerekmez. Bazı elemanlar aynı fonksiyonu diğer

9

elemanlar farklı fonksiyonu kullanabilir. Bir problem için en iyi fonksiyon tasarımcının

denemeleri sonucunda belirleyebileceği bir durumdur (Öztemel, 2006, s.50).

Aktivasyon fonksiyonu girdi ve çıktı elemanları arasındaki eğrisel eşleşmeyi

sağlar. Fonksiyonun doğru seçilmesi ağın performansı üzerinde önemli bir etkiye

sahiptir. Seçilen fonksiyon tek kutuplu, çift kutuplu yada doğrusal olabilir. Seçilen

fonksiyonun doğrusal olmaması durumunda, eğimin parametresi belirlenmelidir.

Eğimin parametresi de optimal sonuca yeterli derecede yaklaşılmasında rol oynayan

önemli bir faktördür (Erilli, Eğrioğlu, Yolcu, Aladağ ve Uslu, 2010, s.46).

Yapay sinir ağlarında doğrusal olmayan fonksiyonların kullanılması ile yapay

sinir ağlarının çok karmaşık ve farklı problemlere uygulanması sağlanmıştır. En çok

kullanılan aktivasyon fonksiyonları şunlardır (Öztemel, 2006, s.51; Elmas, 2003, s.33-

34; Saalasti, 2003, s.79; Krieger, 1996, s.6; Koleyni, 2009, s.145, Şen, 2004, s74-78).

Doğrusal Fonksiyon

Doğrusal fonksiyon hücreye gelen girdileri olduğu gibi hücrenin çıktısı olarak

kabul eder. Doğrusal fonksiyon Şekil 3’te gösterildiği gibidir. Çoğunlukla ADALİNE

olarak adlandırılan doğrusal modelde, regresyon analizinde ve klasik işaret işlemede

kullanılır. Denklemi ise;

v = net= veya v = net= olmak üzere

y = F(v) = Av 5

Formüldeki A sabit sayıdır.

Şekil 3 Doğrusal Fonksiyon.

10

Basamak Fonksiyonu

Basamak fonksiyonu tek veya çift kutuplu fonksiyon olabilir. Bu tip

fonksiyonların şekli Şekil 4’ te ve matematiksel ifadeleri de Denklem 6 ve 7’de

gösterildiği gibidir. Ayrıca Perceptron (Basit Algılayıcı Model) olarak bilinen yapay

sinir hücresinde aktivasyon fonksiyonu olarak bu fonksiyon kullanılır.

y = F(v) = 6

y = F(v) = 7

(a) Tek kutuplu (b) Çift kutuplu

Şekil 4 Basamak Fonksiyonları.

Kutuplamalı Basamak Fonksiyonu

Kutuplama değeri, tek kutuplu çift kutuplu basamak fonksiyonlarının her ikisine

de eklenebilir. Gelen net girdi değerinin belirlenen bir eşik değeri olan b’ nin altında

veya üstünde olmasına göre hücrenin çıktısı 1 veya 0 değerini alır. Tek kutuplamalı

basamak fonksiyonunun şekli Şekil 5’ te ve matematiksel ifadesi Denklem 8’de

gösterildiği gibidir.

y = F(v) = 8

11

Şekil 5 Tek Kutuplamalı Basamak Fonksiyon.

Çift kutuplamalı basamak fonksiyonları için Şekil.6 ve Denklem 9 aşağıda

verilmiştir.

y = F(v) = 9

Şekil 6 Çift Kutuplamalı Basamak Fonksiyon.

Parçalı Doğrusal Fonksiyon

Parçalı doğrusal fonksiyon küçük aktivasyon potansiyeli için, α kazancı olan bir

doğrusal toplayıcı (ADALİNE) olarak çalışır. Büyük aktivasyon potansiyeli için, nöron

doyuma ulaşır ve çıkış işareti 1 olur. Büyük kazançlar için, α→∞ iken, parçalı doğrusal

fonksiyon basamak fonksiyon gibi davranır. Parçalı doğrusal fonksiyonun şekli Şekil

7’de ve matematiksel ifadesi Denklem 10’da gösterildiği gibidir.

y = F(v) = 10

12

Şekil 7 Parçalı doğrusal fonksiyon.

Sigmoid Fonksiyon

Yapay sinir ağlarında en çok kullanılan aktivasyon fonksiyonlarından biridir.

Tek kutuplu fonksiyon olarak da adlandırılır. Fonksiyonun en aktif bölgesi 0,2 ile 0,8

arasındadır. Sigmoid fonksiyonunun şekli Şekil 8’de ve matematiksel ifadesi Denklem

11’de gösterildiği gibidir.

y = F(v) = = 11

Şekil 8 Sigmoid Fonksiyon

Tanjant Hiperbolik Fonksiyon

Bu fonksiyon yapay sinir ağlarında en çok kullanılan fonksiyonlardan bir

diğeridir. Çift kutuplu fonksiyon olarak da adlandırılır. Giriş uzayının genişletilmesinde

etkili bir şekilde kullanılan bir aktivasyon fonksiyonudur. Tanjant hiperbolik

fonksiyonun şekli Şekil 9’da ve matematiksel ifadesi Denklem 12’de gösterildiği

gibidir.

y = F(v) = 12

13

Şekil 9 Tanjant Hiperbolik Fonksiyon.

Sinüs Fonksiyon

Öğrenilmesi düşünülen olaylar sinüs fonksiyonuna uygun dağılım gösteriyorsa,

bu gibi durumlarda aktivasyon fonksiyonu olarak sinüs fonksiyonu kullanılır. Sinüs

fonksiyonunun şekli Şekil 10 ve matematiksel ifadesi Denklem 13 olarak aşağıda

gösterildiği gibidir.

y = F(v) = 13

Şekil 10 Sinüs Fonksiyonu.

2.3.5. Hücrenin Çıktısı

Aktivasyon fonksiyonu tarafından belirlenen değer çıktı değeridir. Üretilen çıktı

dış dünyaya ya da diğer bir hücreye gönderilir. Bu hücrenin çıktısı kendine ve

kendinden sonra gelen bir ya da daha fazla sayıda hücreye giriş olabilir. İşlem

elemanının sadece bir çıktı değeri vardır. Ağ şeklinde gösterilmesinden dolayı çıktı

elemanının birden fazla çıktı değeri olduğu sanılmaktadır. Bu sadece gösterim

amaçlıdır.

14

2.4. Yapay Sinir Ağlarının Avantajları ve Dezavantajları

Teknolojik gelişme olarak görülmesi gereken YSA’ lar özellikleri ve

yapabildikleri sayesinde önemli avantajlar sağlamaktadır. Bu avantajların yanı sıra bazı

dezavantajları da bulunmaktadır.

2.4.1. Yapay Sinir Ağlarının Avantajları

Doğrusal Olmama: Nöron temelde doğrusal olmayan bir yapıya sahiptir. Bir sinir ağı

ise nöronların karşılıklı olarak bağlanmasından oluştuğu için doğası itibariyle doğrusal

değildir. Ayrıca ağın her tarafına dağıtılmış olmasından ötürü özel bir çeşit doğrusal

olmama durumu söz konusudur. Özellikle girdi setinin yaratılmasından sorumlu altta

yatan fiziksel mekanizma doğası gereği doğrusal değilse bu durumda doğrusal olmama

özelliği büyük bir öneme sahip olmaktadır. Sinir ağı modellerinin özellikle parametrik

olmayan doğası, doğrusallık ve normallik varsayımının sağlandığından kuşku duyulan

sosyal bilim verilerine uygunluk sağlamaktadır (Aras, 2008, s,21).

Öğrenme: Geleneksel hesaplama yöntemlerinde bir problemin çözülebilmesi için

probleme uygun bir algoritma geliştirilmesi ve programlama yolu ile hesaplama

yapılması gerekmektedir. Genellikle bu tür algoritmaların çözüm yeteneği uzmanın kod

yazma yeteneği ile sınırlıdır. Bu tür algoritmaların zorluğu ve her problem türüne göre

farklı algoritma yazılma ihtiyacı nedeniyle karmaşık problemlerin çözümünde

kullanılamazlar. Herhangi bir nesneyi bilgisayara geleneksel yöntemlerle öğretmek için

nesnenin mümkün olan tüm açılardaki ve uzaklıklardaki görüntülerini, mümkün olan

tüm değişik kombinasyonları ile birlikte göstermeniz gerekmektedir. YSA’ların

öğrenme sistemi ise insan beyninin çalışma şekline benzemektedir. Öğrenme, özellikleri

verilen örnekler yoluyla yapay sinir ağının kendisi tarafından sağlanmakta ve YSA’lar,

örnekleri kullanarak probleme ilişkin genelleme yapabilecek yeteneğe ulaşmaktadır. Bu

özelliği sayesinde geleneksel yöntemler için karmaşık olan sorunlara çözüm

üretilebilmektedir. Ayrıca, insanların kolayca yapabildiği ancak geleneksel yöntemler

için imkansız olan basit işlemler için de uygun olmaktadırlar. Geleneksel sistemlerden

ayrıldığı bir başka nokta ise sürekli öğrenmedir. YSA’lar, kendisine gösterilen yeni

örnekleri öğrenebilmeleri ve yeni durumlara adapte olabilmeleri sayesinde sürekli

olarak yeni olayları öğrenebilmesi mümkündür (Bayır, 2006 s.8).

15

Hata Toleransı ve Esneklik: Yapay sinir ağları, geleneksel işlemcilerden farklı şekilde

işlem yapmaktadırlar. Geleneksel işlemcilerde tek bir merkezi işlemci eleman her

hareketi sırasıyla gerçekleştirmektedir. Seri bilgi işlem yapan geleneksel bir sistemde

herhangi bir birimin hatalı çalışması, hatta tamamen bozulmuş olması tüm sistemin

hatalı çalışmasına veya bozulmasına sebep olacaktır. YSA modelleri, her biri büyük bir

problemin bir parçası ile ilgilenen çok sayıda basit işlemci elemanlardan oluşmaları ve

bağlantı ağırlıklarının ayarlanabilmesi gibi özelliklerinden dolayı önemli derecede

esnek bir yapıya sahiptirler. Bu esnek yapı sayesinde ağın bir kısmının zarar görmesi

modelde sadece performans düşüklüğü yaratmakta, problemin çözümünde büyük bir

soruna yol açmamakta, modelin işlevini tamamen yitirmesi söz konusu olmamaktadır.

Bu nedenle, geleneksel yöntemlere göre hatayı tolere etme yetenekleri son derece

yüksektir. Ayrıca toplam işlem yükünü paylaşan işlemci elemanların birbirleri

arasındaki yoğun bağlantı yapısı sinirsel hesaplamanın temel güç kaynağıdır. Bu yerel

işlem yapısı sayesinde, yapay sinir ağları yöntemi en karmaşık problemlere bile

uygulanabilmekte ve tatminkar çözümler sağlayabilmektedir (Yurtoğlu, 2005, s.35).

Gerçeklenme Kolaylığı: Yapay sinir ağlarında basit işlemler gerçekleyen türden

hücrelerden oluşması ve bağlantıların düzgün olması, ağların gerçeklenmesi açısından

büyük kolaylıklar sağlamaktadır (Saraç, 2004, s.13).

Genelleme: Yapay sinir ağları önceki deneyimlerden öğrenebilir, bir kez

eğitildiklerinde yeni bir veri kümesine hemen cevap verebilir. Bir örnekten hareket

ederek diğer örnekleri açıklayabilir (Tolon, Güneri ve Tosunoğlu, 2008, s.252).

Sınırsız Sayıda Değişken ve Parametre Kullanma: YSA modelleri sınırsız sayıda

değişken ve parametre ile istatistik yöntemlerine göre daha iyi tahminler

yapabilmektedir. Bu sayede mükemmele yakın tahminler sayesinde genel çözümler

sağlanmaktadır.

Hafıza: Geleneksel hesaplama yöntemlerinde bilgi, veri tabanlarında veya program

kodlarının içinde saklanmaktadır. YSA ise bilgiyi nöronlar arasındaki bağlantılarda

saklayabilmektedir. Bu sayede dağılan bilgiyi ağın tamamının öğrendiği ve olayın

tamamını gösterebildiği bilinmektedir. Bu nedenle YSA dağıtılan bellekte bilgiyi

saklayabilmektedir.

16

2.4.2. Yapay Sinir Ağlarının Dezavantajları

YSA kullanımında dezavantaj sayılabilecek noktalar; basit olarak görülebilecek

modelleme yapılarına rağmen bazı konularda uygulamanın zor ve karmaşık olmaktadır.

Bazı durumlarda, bir yakınsama sağlamak bile imkânsız olabilmekte fakat bu durum da

uygulama yapılan alana bağlıdır ve genellikle çok karmaşık problemlerle karşılaşılır

(Yurtoğlu, 2005, s.37).

Doğru modelleme için genellikle deneme yanılma yönteminin kullanılması da

önemli bir dezavantaj olabilir. Çünkü kullanılan modelin doğruluğunu ve oluşturulan

çözümün optimum çözüm olup olmadığını test etmek zordur. Model doğru kurulmuş

olsa bile yapay sinir ağları optimum çözüm garantisini vermez, yalnızca kabul edilebilir

çözümler üretebilir (Öztemel, 2003, s.34).

YSA ’nın bilgisayar donanımına bağlı çalışmaları da bir dezavantajdır.

YSA’ların temel prensibi olan paralel işlemcilerle günümüz bilgisayarları ve teknolojisi

ile uyuşmayabilir. Günümüzdeki bilgisayarlar seri çalışabilmekte ve aynı zamanda tek

bilgiyi işleyebilmektedir. Paralel işlemcileri bilgisayarlarda yapmak ise zaman kaybına

yol açabilir.

2.5. Yapay SinirAğlarının Uygulama Alanları

YSA hem yapısal açıdan çeşitlilikleri hem de öğrenme algoritmalarının

çeşitliliği açısından karmaşık problemlerin çözümünde modelin kurulmasında oldukça

değişik olanaklar sunmaktadır. Teknolojik gelişmelerin büyük bir ivme kazandığı bu

dönemde gerek donanım teknolojilerinin gerekse yazılım geliştirme ortamlarının

tasarımcıya sunmuş olduğu olanaklar, kullanıcı istekleri doğrultusunda sistemlerin ve

yaklaşımların karmaşıklığındaki artışı da beraberinde getirmiştir. YSA ‘nın ileriye

dönük uygulamaları için bu kısımda karmaşık sistemlerin denetimleri, akıllı makineler,

borsa, para ve finans konularına değinilmektedir (Efe ve Kaynak, 2000, s.103).

Bu uygulamaların hepsini bu çalışmada göstermek imkansızdır. Bu nedenle belli

başlı uygulamalardan örneklerle bahsedilecektir. Bu uygulamalar aşağıdaki başlıklar

altında özetlenebilir (Saraç, 2004, s.11; Öztemel, 2003, s.205; Li, 1994, s:303 - 313).

Endüstriyel Uygulamalar: Yapay sinir ağları bir endüstriyel sektörde fırınların ürettiği

gaz miktarının tahmini, imalatta, ürün tasarımı, proses ve makinelerin bakımı ve

hataların teşhisi, görsel kalite kontrolü, kimyasal proseslerin dinamik modellenmesi,

otomobillerde otomatik rehber sisteminin geliştirilmesi, robotlarda görme sistemleri

17

kontrol edilmesi, cep telefonlarında ses ile çalışabilme, araba pistonlarının üretim

şartlarının belirlenmesi, elektronik yonga hata analizleri, optimizasyon çalışmaları,

müşteri tatmini ve pazar verilerinin değerlendirilmesi ve analiz edilmesi, kömür güç

istasyonları için çevrimiçi karbon akımı ölçülmesi, işlerin makinelere atanması ve

çizelgeleme.

Finansal Uygulamalar: Makro ekonomik tahminler, banka kredilerinin ve sigorta

poliçelerinin değerlendirilmesi, kredi kartı hilelerinin tespiti, kredi kartı kurumlarında

iflas tahminleri, emlak kredilerinin yönetilmesi, bond, hisse senedi ve döviz kuru

tahminleri, risk analizleri gibi örneklerde uygulama alanı bulmaktadır.

Askeri Alanlarda Uygulamaları: Silahların otomasyonunda ve hedef izlemede, radar

ve sonar sinyallerinin sınıflandırılması ile nesneleri/görüntüleri ayırma ve tanımada,

yeni sensör ve algılayıcı tasarımında, mayın dedektörlerinde, uçakların rotalarının

belirlenmesinde ve gürültü önleme gibi alanlarda kullanılmaktadır

Haberleşme Uygulamaları: Görüntü ve veri sıkıştırma, otomatik bilgi sunma

servisleri, iletişim kanallarındaki gereksiz yankılanmaların ve gürültülerin filtrelenmesi,

iletişim kanallarındaki trafik yoğunluğunun kontrol edilmesi ve anahtarlanması gibi

alanlarda.

Sağlık Uygulamaları: EEG ve ECG gibi tıbbi sinyallerin analizi, kanserli hücrelerin

analizi, protez tasarımı, transplantasyon zamanlarının optimizasyonu, kan hücreleri

reaksiyonları ve kan analizlerinin sınıflandırılması, kalp krizlerinin önceden tespiti,

örüntüleme cihazlarının ürettiği verilerden hastalıkların teşhisi ve hastanelerde

giderlerin optimizasyonu, solunum hastalıklarının teşhisi, hamile kadınların karnındaki

çocukların kalp atışlarının izlenmesi gibi konularda uygulanmaktadır.

Diğer Alanlarda Uygulamalar: Sigorta poliçelerinin değerlendirilmesi, petrol ve gaz

aramasının yapılması, karakter, el yazısı ve imza tanıma sistemleri, veri madenciliği,

uçak parçalarının hata teşhislerinin yapılması, hava alanlarında bomba dedektörleri ve

uyuşturucu koklayıcılar olarak sıralanabilir.

18

2.6. Yapay Sinir Ağlarındaki Katmanlar

Sinir ağları nöronların bağlantılarından oluşur. Katman ifadesi yapay sinir

ağlarındaki nöronların sırasını belirlemek için kullanılır (Yıldız ve Yezegel, 2010,

s.150). Yapay sinir ağlarında üç katman bulunmaktadır. Her katman bir önceki

katmandan girdi alır ve bir sonraki katmana çıktı gönderen nöronlara sahiptir (Balas,

Koç ve Tür 2010, s.426). Bu katmanlar girdi, gizli ve çıktı katmanlarıdır. Bu katmanları

aşağıdaki gibi açıklayabiliriz.

2.6.1. Girdi Katmanı

Girdi katmanı dış dünyadan gelen verilerin bulunduğu katmandır. Bu

katmanında dış dünyadan gelen girdi değerleri üzerinde herhangi bir işlem

uygulanmamaktadır. Bu katmandaki tüm girdi değerleri bir sonraki katman olan gizli

katmanın her birimine dağıtılır (Tağluk, Akın ve Sezgin, 2010, s.602).

2.6.2. Gizli Katman

Gizli katman girdi ve çıktı katmanları arasında bir köprüdür. Gizli katmanda

girdi katmanından gelen girdi değerleri işleme tabi tutulmaktadır (Eletter ve Yaseen,

2010, s.210). Girdi ve çıktı katmanı tek katmandan oluşurken gizli katman bir ya da

birden çok katmandan oluşabilir (Tağluk, Akın ve Sezgin, 2010, s.602). Problemin

yapısına göre gizli katmanların ve gizli katmanda bulunacak gizli hücrelerin sayısı

deneme yanılma yoluyla tasarımcı tarafından düzenlenir.

2.6.3. Çıktı Katmanı

Çıktı katmanı, gizli katmandan gelen bilgileri işleyerek dış dünyaya ileten

katmandır. Çıktı katmanındaki çıktı ağdaki tüm nöronların birleşik etkisinin sonucudur

(Dombaycı ve Gölcü, 2009, s.1159).

19

Şekil 11 Yapay Sinir Ağlarındaki Katmanlar

Kaynak: Kutlu, Badur, 2009, s.29

2.7. Yapay Sinir Ağlarının Sınıflandırılması

Yapay sinir ağları daha önce de bahsedildiği gibi genel olarak birbirleri ile

bağlantılı işlemci birimlerinden ya da diğer bir ifade ile nöronlardan oluşmaktadır. Bu

nöronlar arasındaki bağlantıların yapısı ağın yapısını da belirler. Bağlantıların nasıl

olacağı, öğrenme algoritması tarafından belirlenir. Yapay sinir ağlarını yapılarına göre

sınıflandırmak mümkündür. Bu bölümde yapay sinir ağlarının sınıflandırılması

açıklanmaya çalışılacaktır.

Yapay sinir ağı mimarileri, nöronlar arasındaki bağlantıların yönlerine veya ağ

içindeki işaretlerin akış yönlerine göre; ileri beslemeli ve geri beslemeli olmak üzere

ikiye ayrılmaktadır (Ataseven, 2007, s.29).

2.7.1. İleri Beslemeli Ağlar

İleri beslemeli yapay sinir ağlarında, hücreler katmanlar şeklinde düzenlenir ve

bir katmandaki hücrelerin çıktısı bir sonraki katmana ağırlıklar üzerinden girdi olarak

gönderilir. Girdi katmanı, dış ortamlardan aldığı bilgileri hiçbir değişikliğe uğratmadan

20

gizli katmandaki hücrelere iletir. Bilgi, gizli ve çıktı katmanında işlenerek ağın çıktısı

belirlenir (Çuhadar ve Kayacan, 2005, s.3).

Girdi ve çıktı katmanlarının arasında gizli katmanlar bulunur. Gizli katmandaki

nöron sayıları ele alınan problemin gereklerine göre belirlenir, ancak gizli katman veya

katmanlardaki nöron sayısının optimallik anlamında doğru sayısını veren herhangi bir

analitik yöntem şimdiye kadar geliştirilememiştir. Dolayısıyla gizli katman sayısındaki

ve bu katmanların nöron sayılarındaki belirsizlikleri aşabilmenin tek yolu, deneme

yanılma yöntemidir (Efe ve Kaynak, 2000, s.13).

İleri beslemeli yapay sinir ağlarında sinyaller sadece tek bir yönde, girdi

katmanından çıktı katmanına doğru yönelir. Bir katmandan elde edilen çıktı değeri aynı

katmandaki nöronları etkilemez. İleri beslemeli ağlarda nöronlar yalnızca bir sonraki

katmanda bulunan nöronlarla bağlantıya sahiptir. İleri beslemeli ağ modellerinde ağın

çıktısı tamamen ağa giren girdilere bağlıdır. İleri beslemeli ağlar herhangi bir

dinamiklik özelliği taşımazlar ve gösterdikleri özellik bakımından doğrusal ve doğrusal

olmayan kararlı problem alanlarında uygulanmaları mümkündür (Tolon ve Tosunoğlu,

2008, s.250; Güneri ve Apaydın, 2004, s.175).

Şekil 12 İleri Beslemeli Yapay Sinir Ağı

Kaynak: Yazıcı, 2007, s.84

2.7.2. Geri Beslemeli Ağlar

Geri beslemeli ağlarda da nöronlar ileri beslemeli ağlarda olduğu gibi

katmanlarda bulunur. Ancak katmanlar arası bağlantılar tek yönlü değil çift yönlüdür.

Bir geri beslemeli ağ, çıktı ve ara katman çıktılarının girdi birimlerine veya önceki ara

katmanlara geri beslendiği bir ağ yapısıdır. Böylece girdiler hem ileri yönde hem de geri

yönde aktarılmış olur (Kaya, Oktay ve Engin, 2005, s.95).

Geri beslemeli ağ yapısında en az bir tane geri besleme çevirimi bulunur. Geri

besleme, aynı katmandaki hücreler arasında olabileceği gibi farklı katmanlardaki

nöronlar arasında da olabilir (Asilkan ve Irmak, 2009, s.380).

21

Geri beslemeli ağlarda bir katman üzerinde yer alan nöronlar, kendisinden,

katmandaki diğer nöronlardan veya diğer katmanlardaki nöronlardan da

beslenebilmektedir. Bu nedenle geri beslemeli ağlarda bir nöronun çıktısı, nöronun o

andaki girdiler ve ağırlık değerleriyle belirlenmesinin yanında bazı nöronların bir

önceki süredeki çıktı değerlerinden de etkilenir. Bu türlü ağlar çok güçlü ve karmaşıktır

(Güneri ve Apaydın, 2004, s.175).

Şekil 13 Geri Beslemeli Yapay Sinir Ağı

Kaynak: Yazıcı, 2007, s.85

2.8. Yapay Sinir Ağı Mimarileri

Yapay sinir ağlarında değişik ağ mimariler bulunmaktadır. Bu ağ mimarileri ağı

eğitmek için kullanılan algoritmaya bağlıdır. Yapay sinir ağları mimarilerine göre

aşağıdaki gibi ayrılmıştır.

2.8.1. Tek Katmanlı Yapay Sinir Ağı

Tek katmanlı yapay sinir ağı en basit ağ yapısıdır. Bir giriş katmanı ve bir çıkış

katmanı vardır. Bu tip bir ağda bilgi girdiden çıktıya doğru ilerler yani ağ ileri

beslemelidir. Tek katman olarak isimlendirilmesinin sebebi, girdi katmanının veri

üzerinde hiçbir işlem yapmadan veriyi çıktı katmanına iletmesidir (Yıldız, 2006, s.66).

Bu ağlarda süreç elemanlarının değerlerinin ve dolayısıyla ağın çıktısının sıfır

olmasını önleyen bir de eşik değeri vardır ve değer daima 1’dir. Ağın çıktısı

ağırlıklandırılmış girdi değerlerinin eşik değeri toplanması sonucu bulunur. Bu girdi ile

bir aktivasyon fonksiyonundan geçirilerek ağın çıktısı hesaplanır. Tek katmanlı ağlarda

çıktı fonksiyonu doğrusal bir fonksiyondur. Bu fonksiyon 1 veya -1 değerlerini

almaktadır. Eğer çıktı 1 ise birinci sınıfta -1 ise ikinci sınıfta kabul edilmektedir (Vural,

2007, s.17).

22

Şekil 14 Tek Katmanlı Yapay Sinir Ağı

Kaynak: Vural, 2007, s.17

2.8.2. Çok Katmanlı Yapay Sinir Ağı

Çok katmanlı yapay sinir ağlarının çalışma prensibi tek katmanlı ağlarla aynı

şekildedir. Farklı olarak çok katmanlı yapay sinir ağlarında girdi ve çıktı katmanları

arasında gizli katmanların bulunmasıdır. Gizli katmanların sayısı ve gizli katmandaki

hücre sayısı problemin yapısına göre belirlenmektedir (Güngör, 2007, s.30).

Şekil 15 Çok Katmanlı Yapay Sinir Ağı

Kaynak: Torun, 2007, s 58

2.8.3. Geri Beslemeli Yapay Sinir Ağı

Geri beslemeli yapay sinir ağlarında çıktı ve ara katman çıktıları, girdi

birimlerine veya kendinden önce gelen ara katmanlara geri beslenir ve bu şekilde

23

girişlerin hem ileri yönde hem de geri yönde aktarılması sağlanır (Kaya, Oktay ve

Engin, 2005, s.95).

Ağ gücü temsil etme kabiliyeti bakımından geri beslemeli ağ yapısı gerçek

dinamik bir yapıya sahiptir (Yıldırım, 2002, s.3).

Geri beslemeli yapay sinir ağlarında aktivasyon ve hata değeri sonsuza kadar

veya kararlı noktaya ulaşıncaya kadar yayılabilir. Aynı katmanlardaki elemanlar birbiri

ile bağlantılı olduğundan, gizli katmandaki bir eleman hem dışarıdan gelen hem de

kendi katmanındaki elemanlardan gelen verileri girdi olarak kabul edecektir. Yani geri

beslemeli bağlantılar fazladan girdiye yol açacaktır. Bu değerler ağın kendisi tarafından

hesaplanmaktadır (Bayır, 2006, s.64).

Şekil 16 Geri Beslemeli Yapay SinirAğı

Kaynak: Kaya, Oktay, Engin 2005 s.95

2.8.4. Kafes Yapılı Yapay Sinir Ağı

Kafes yapılı yapay sinir ağlarında kafesin yapısı bir veya birden fazla sinir

hücresinden oluşan dizilerden oluşmaktadır. Kafesin boyutu ise ağ grafiğinin bulunduğu

uzayda boyutların sayısı olarak ifade edilmektedir (Güngör, 2007, s.33).

Şekil 17 Kafes Yapılı Yapay Sinir Ağı

Kaynak: Güngör, 2007, s.33

24

2.9. Yapay Sinir Ağlarında Öğrenme

Yapay sinir ağlarının en ayırt edici özelliklerinden birisi de öğrenme yeteneğine

sahip olmasıdır. Öğrenme elde bulunan örnekler arasındaki yapının iyi bir davranış

göstermesini sağlayabilecek olan bağlantı ağırlıklarının hesaplanması olarak tanımlanır.

Yapay sinir ağları öğrenme esnasında elde ettiği bilgileri, sinir hücreleri arasındaki

bağlantı ağırlıkları olarak saklar. Bu ağırlık değerleri yapay sinir ağlarının verileri

başarılı bir şekilde işleyebilmesi için gerekli olan bilgileri içerir (Şen, 2004, s.90).

Yapay sinir ağları gibi öğrenme yöntemleri örneklerden öğrenmeye

dayanmaktadır. Örneklerden öğrenmenin temel felsefesi bir olay hakkındaki

gerçekleşmiş örnekleri kullanarak olayın girdi ve çıktıları arasındaki ilişkileri öğrenmek

ve bu ilişkilere göre daha sonra oluşacak olan yeni örneklerin çıktılarını belirlemektir.

Burada bir olay ile ilgili örneklerin girdi ve çıktıları arasındaki ilişkinin olayın genelini

temsil edecek bilgiler içerdiği kabul edilmektedir. Değişik örneklerin olayı değişik

açılardan temsil ettiği varsayılmaktadır. Farklı örnekler kullanarak böylece olay değişik

açılardan öğrenilmektedir. Burada bilgisayara sadece örnekler gösterilmektedir.

Bunlardan başka herhangi bir ön bilgi verilmemektedir. Öğrenmeyi gerçekleştirecek

sistem aradaki ilişkiyi kendi algoritmasını kullanarak keşfetmektedir (Öztemel, 2006,

s.24-25).

Yapay sinir ağlarının öğrenmesi bir çocuğun öğrenmesi gibidir. Sıcak bir

nesneye dokunmaması gerektiğini deneyerek öğrenen çocuklar zamanla daha az sıcak

olan bir cisme dokunabilme cesaretini gösterirler ve sıcak süt dolu bardağı elleriyle

tutarlar. Yani çocuk sıcaklık bilgisini öğrenmiş olmaktadır. Yapay sinir ağları da benzer

olarak; mevcut örnek kümesi üzerinde girdi ile çıktı arasındaki bağıntının ağırlıkların

değiştirilmesiyle eğitilirler. Sunulan girdi kümesi için; transfer fonksiyonu tarafından

sağlanan değerlere cevap olarak bağlantı ağırlıklarının tamamının veya bir kısmının

istenen çıktı ile ağ çıktısı arasındaki farkın belirli bir değere düşünceye kadar

değiştirilmesidir. Günümüze kadar çeşitli öğrenme algoritmaları geliştirilmiştir. Bunlar

temel olarak danışmanlı öğrenme, danışmansız öğrenme ve takviyeli öğrenme olarak üç

ana gruba ayrılır (Civalek ve Ülker, 2004, s.3174).

25

2.9.1. Danışmanlı Öğrenme

Danışmanlı öğrenmede, yapay sinir ağı kullanılmadan önce eğitilmelidir. Eğitme

işlemi, sinir ağına girdi ve çıktı bilgileri sunmaktan oluşur. Bu bilgiler genellikle eğitme

kümesi olarak tanımlanır. Yani, her bir girdi kümesi için çıktı kümesi ağa gösterilir

(Elmas, 2006, s.25).

Şekil 18 Danışmanlı Öğrenme Yapısı

Kaynak: Sağıroğlu Ş., Beşdok E., Erler M. (2003); Mühendislikte Yapay Zeka

Uygulamaları I: Yapay Sinir Ağları, Kayseri: Ufuk Kitap Kırtasiye-Yayıncılık, s.81.

Şekil 18’de danışmanlı öğrenme yapısı gösterilmektedir. Bu öğrenme

yönteminde öğrenmeye dışarıdan müdahale eden bir öğretmen, danışman vardır.

Öğrenme danışmanın kontrolündedir. Danışman, eğitim kümesini ve hata değerini

belirleyerek eğitimin ne kadar devam edeceğine karar verir (Şen, 2004, s.98-99).

Danışmanlı öğrenmenin temel amacı, ağın beklenen çıkışı ile ürettiği çıkış

arasındaki hatayı en aza indirmektir. Bu ağlara eğitim sırasında hem girdiler hem de o

girdilere karşılık üretilmesi gereken çıktılar verilir. Ağın görevi her girdi için o girdiye

karşılık gelen çıktıyı üretmektir. Veriler, girdi katmanına uygulanır, ara katmanlarda

işlenir ve çıktı katmanından da çıktılar elde edilir. Kullanılan eğitme algoritmasına göre,

ağın çıktısı ile arzu edilen çıktı arasındaki hata tekrar geriye doğru yayılarak hata

minimuma düşünceye kadar ağın ağırlıkları değiştirilir (Kılağız ve Baran, 2009, s.31).

Bir danışmanlı öğrenme mimarisinde, yapay sinir ağı modelinin performansı,

bilinen bir sonuca karşı ölçülür (Papatla, Zahedi ve Zekic-Susac, 2002, s.440).

Denetimli öğrenme modelini kullanan ağlar; Perceptron ve ilişkili hafızalar,

takviyeli öğrenme, stokastik öğrenme, vektör nicelik öğrenmesi, delta ve

26

genelleştirilmiş delta kuralı, geri yayılma algoritması, bu grup öğrenmede kullanılan

etkin metotlardır (Civalek ve Ülker, 2004, s.3174).

2.9.2. Danışmansız Öğrenme

Bu öğrenme türünde sistemin öğrenmesine yardımcı olan herhangi bir danışman

yoktur. Sisteme sadece girdi değerleri gösterilir (Öztemel, 2006, s.25).

Danışmansız öğrenmede sistemin doğru çıktı hakkında bilgisi yoktur ve girdilere

göre kendi kendisini örnekler. Danışmansız olarak eğitilebilen ağlar, istenen ya da hedef

çıktı olmadan girdi bilgilerinin özelliklerine göre ağırlık değerlerini ayarlar. Uygun bir

çıktı üretilinceye kadar bağlantı ağırlıkları değiştirilir (Güngör ve Çuhadar, 2005, s.90).

Danışmansız öğrenmede çıktı vektörünün yerine benzer tip girdilerin kümesi

oluşturularak bazı matematiksel kural veya fonksiyonel ilişkilerle sınıflandırılmaya

çalışır (Vashisth ve Chandra, 2010 s.19).

Şekil 19’da danışmansız öğrenme yapısı gösterilmektedir. Bu metot görüntü

işleme, işaret işleme ve kontrol problemlerinde etkin olarak kullanılır. Kohonen’in

kendini düzenleyen uzaylar, ve adaptif rezonans teorisi (ART) danışmansız öğrenmeye

örnek olarak verilebilir (Civalek ve Ülker, 2004, s.3174).

Şekil 19 Danışmansız Öğrenme Yapısı

Kaynak: Sağıroğlu Ş., Beşdok E., Erler M. (2003); Mühendislikte Yapay Zeka

Uygulamaları I: Yapay Sinir Ağları, Kayseri: Ufuk Kitap Kırtasiye-Yayıncılık, s.81.

2.9.3. Takviyeli Öğrenme

Takviyeli öğrenmede girdi değerlerine karşılık gelecek uygun çıktıların elde

edilmesi sırasında ağırlıkların en uygun değerlerinin bulunmasında genetik algoritmalar

27

veya tabu en iyilime yöntemleri kullanılır. Böylece ağırlıklar optimize edilmektedir

(Civalek ve Ülker, 2004, s.3174).

2.10. Yapay Sinir Ağlarında Öğrenme Kuralları

Yapay siniri ağları ile ilgili literatürde çok sayıda öğrenme kuralı bulunmaktadır.

Öğrenme kuralları kullanılan yapay sinir ağlarının amacı ve ağın topolojisi ile doğrudan

ilişkilidir. Ağırlıkların değiştirilmesi bu kurallara göre yapılmaktadır.

Yapay sinir ağlarına verilen girdilere göre kendi topolojisine uygun olarak işlem

yaptıktan sonra çıktı üretir. Üretilen çıktı değeri hedeflenen değere yakın olması için

kullanılan öğrenme kuralı da önemli bir yer tutar.

Bu öğrenme kurallarının birçoğu temel olarak Hebb öğrenme kuralın temel

almaktadır. Ayrıca araştırmacılar sürekli olarak yeni öğrenme kuralları

geliştirmektedirler. Bu öğrenme kurallarından yaygın olarak kullanılan öğrenme

kuralları şunlardır.

• Hebb Kuralı

• Hopfield Kuralı

• Delta Kuralı

• Kohonen Kuralı

• Gradyan İniş Kuralı

2.10.1. Hebb Kuralı

Donald Hebb tarafından biyolojik temele bağlı olarak geliştirilmiştir. Tanımı

“The Organization Behevair” kitabında anlatılmıştır. Bu öğrenme kuralı basit bir

mantığa dayanmaktadır. Eğer nöron başka bir nörondan girdi alıyorsa ve her iki nöron

aktif ise aralarındaki ağırlık kuvvetlendirilir dolayısıyla aralarındaki ilişki güçlenir

(Saraç, 2004, s.58-59).

Başka bir ifadeyle bir yapay sinir hücresi aktif ise bağlı olduğu hücreyi aktif

yapmaya, pasif ise pasif yapmaya çalışmaktadır (Öztemel, 2006, s.26).

Hebb kuralı diğer tüm öğrenme algoritmalarının temeli sayılır. Günümüzde en

çok bilinen yapay sinir ağı öğrenme algoritması olan hata geri yayılım algoritmasının

temeli de bu kurala dayanmaktadır (Bayru, 2007, s.34).

28

2.10.2. Hopfield Kuralı

Bu kural John Hopfield tarafından geliştirilmiştir ve bu kural Hebb kuralına

benzemektedir. Eğer beklenilen çıktı ve girdilerin her ikisi aktif veya her ikisi pasif ise

öğrenme katsayısı tarafından bağlantı ağırlığı kuvvetlendirilir. Diğer durumlarda ise

zayıflatılır.

Ağırlıkların kuvvetlendirilmesi yada zayıflatılması sırasında kullanılan öğrenme

katsayısı sabit ve 0-1 arasında kullanıcı tarafından belirlenen sabit bir değerdir.

2.10.3. Delta Kuralı

Bu kural Widrow ve Hoff tarafından geliştirilmiş ve Hebb kuralının biraz daha

gelişmiş şeklidir.

Delta kuralında nöronun gerçek çıktısı ile istenilen çıktı değerleri arasındaki

farkı azaltmak için bağlantıların ağırlık değerleri sürekli olarak değiştirilir.

Delta kuralı ortalama karesel hatayı, bağlantı ağırlık değerlerinin değiştirilmesi

ile minimize etme prensibine dayanır. Bu sebeple de bu algoritmaya Widrow-Hoff

öğrenme kuralı veya en küçük kareler öğrenme kuralı (Least Mean Square, LMS) olarak

da bilinmektedir. Hata aynı anda bir katmandan bir önceki katmana geri yayılarak

azaltılır. Ağın hatalarının düşürülmesi işlemi, çıktı katmanından girdi katmanına

ulaşıncaya kadar devam eder (Saraç, 2004, s.59-60).

Delta kuralı kullanılırken dikkat edilmesi gereken en önemli etken, girdi

setindeki verilerin rastgele dağılmış olması gerekmektedir. Eğitim setinin düzgün sırada

olması veya yapısal olarak düzgün olması, istenilen doğruluğa ulaşmaya engel teşkil

etmekte ve ağın öğrenmesini zorlaştırmaktadır (Bayır, 2006, s.31).

2.10.4. Kohonen Kuralı

Bu kural Kohonen tarafından biyolojik sistemlerdeki öğrenmeden esinlenerek

geliştirilmiştir. Bu kuralda nöronlar ağırlıklarını değiştirmek için birbirleri ile yarışırlar.

En uygun çıktıyı üreten nöron kazanan nöron olur ve kendisine komşu olan diğer

nöronların ağırlıklarını değiştirir.

Kohonen kuralında bir beklenen değer dizisi olmasına gerek yoktur. Bu nedenle

de kendi kendine yani danışmansız öğrenme metodudur (Şen, s 98).

29

2.10.5. Gradyan İniş (Eğim İniş) Kuralı

Bu çalışmada YSA modelinin tahmin edilmesinde eğim inişi yöntemi

kullanılmıştır (Bölüm 4.3). Bu kural Delta kuralına benzemektedir. Bu kuralda hatanın

düzeltilmesi için transfer fonksiyonun türevi kullanılır. Bu kurala göre öğrenme

katsayısı bir sabitle çarpılarak ağırlık değiştirilir.

Bu kural yavaş bir yakınsama sağlamasına rağmen yaygın olarak

kullanılmaktadır (Yurtoğlu, 2005, s.101).

2.10.5.1. Geri Yayılım

Geri yayılım, ağırlıkların nasıl ayarlanması gerektiğine karar verir. Her ağırlık

diğer ağırlıklar ile hata tahminini paylaşır. Aynı zaman da küçük bir hata küçük bir

düzenlemeyi büyük bir hata da büyük bir düzenlemeyi gerektirir. Geri yayılım da

ağırlıkların ayarlanması için kullanılan formül şu şekildedir;

i tane gözlem tahmini W’nun bir fonksiyonudur. Dolayısı ile E hata tahmini

de W’nun bir fonksiyonudur. Bu bilgiler ışığında hata tahmini formülünü şu şekilde

ifade edebiliriz;

E(W)=∑

Eğim iniş metodu ile formülü şu şekilde yenileyebiliriz;

= + ( , = 0 ile 1 arasında öğretici parametre

Burada, sırasıyla eski ve yeni hata fonksiyonlarına ait gradyan (eğim)

vektörünü temsil etmektedir. Yöntem, her yinelemede eğim vektörü doğrultusunda

kadar adım atılmasını sağlar. Yineleme ve arasında fark kalmayıncaya

kadar devam eder. Sonuç olarak gelinen nokta hata fonksiyonuna ait bir yerel

minimumdur.

Bu formülün daha farklı varyasyonu da vardır, o da şu şekildedir;

= + ( ) + ( ),

Ağ yapısı, gizli katmana ve gizli katmanlardaki düğüm sayısına karar verir.

Öğretici parametre ve momentum rastgele ağırlıklar ile ağı eğitmeye başlar. İlk gözlem

30

ağa iletilir ve bu gözlem üzerinden hata tahmini yapılır. Daha sonra hata geri

gönderilerek ağırlıklar tekrardan ayarlanmaktadır. Bu şekilde tüm gözlemler ile aynı

uygulama yapılır ve yakınsama onayı alınarak eğitime son verilmektedir.

2.10.5.2. Yakınsama Kriteri

Toplam hata tahminindeki azalma küçük ve ağırlıklardaki değişiklik az ise, bu

bize ağ eğitiminin hatayı minimize ettiği noktada olduğunu göstermektedir.

Hata azalmaya devam ediyor ise bu bizim çok iyi bir eğitici veri aldığımızı

gösterir. Ancak bir noktadan sonra eğitime son verilmez ise ağ ezberlemeye başlar ve

genelleme gücünü kaybeder.

Bunu anlamı şudur; eğitici veri setinden bir X değeri ağa gönderildiği zaman ağ

şiddetle Y değerini tahmin eder ancak daha önce hiç görmediği bir X değeri gönderilir

ise tahmin etmesi zor olur.

Veri seti, eğitici veri ve test edici veri olmak üzere ikiye ayrılmaktadır. Eğitici

veri, modelin yapılandırılmasında kullanılır. Test edici veriler ise modelin daha önce

görmediği veriler üzerindeki performansı test etmektedir.

Şekil 20 Yakınsama Kriteri

Genel olarak eğitici veri üzerindeki hata azalarak devam eder ancak test

üzerindeki hata Şekil 20’de görüldüğü gibi bir noktaya kadar azalır ve o noktadan sonra

artarak devam eder.

31

III. BÖLÜM

TEMEL BİLEŞEN FAKTÖR ANALİZİ

Temel Bileşenler Faktör Analizi (TBFA) çok değişkenli istatistiksel bir yöntem

olup çok sayıda değişkeni daha az sayıda faktöre indirgemeyi amaçlar; nxm

boyutundaki değişken uzayını nxk boyutundaki faktör uzayına indirger (n=gözlem

sayısı, m=değişken sayısı ve k=faktör sayısı).

TBFA, birbiri ile yakın ilişki ve etkileşimleri gösteren değişken gruplarını

özetleyen anlamlı faktörleri belirler.

TBFA ile her bir gözlem için faktör skorları hesaplanabilir. Faktör skor değerleri

daha sonra regresyon diskriminant, logit, probit ve yapay sinir ağı modeli gibi

modellerde bağımsız (girdi) değişken olarak kullanılabilir.

TBFA ile saptanan ortak faktörler (bağımsız değişkenler) birbirleri ile

korelasyon göstermedikleri için bağımsız değişkenler arasında olası bir çoklu bağlantı

(multicollinearity) probleminden de kaçınılmış olunmaktadır.

Model seçiminde cimrilik ilkesine (pirincipal of parsimony) uygun olarak,

optimum sayıda “iyi tahmin edici” değişken (faktör) saptar.

TBFA’de değişkenler çok değişkenli normal dağılımdan gelmeli ve metrik

ölçekte olmalıdır (oran ya da aralık ölçeği). Nominal ölçek (cinsiyet, medeni durum

gibi) ya da ordinal ölçek (küçük, orta ve büyük ölçekli firmalar gibi) faktör analizi için

uygun değildir.

3.1. TBFA’nın Aşamaları:

3.1.1. Değişkenlerin Standart Hale Dönüştürülmesi:

Aşağıda n adet gözlem ve m adet değişkenden oluşan nxmG matrisi verilmiş

olsun.

=

nmn

m

nxm

gg

ggggg

G

1

2221

11211

OM

L

32

TBFA analizinde, öncelikle değişkenler ( ijg ), ortalama sıfır (_

jg = 0), standart

sapma bir (jgs =1) olacak şekilde aşağıdaki eşitliğe göre standart değerlere

dönüştürülür.

jg

jijij s

ggz

_−

=

=

nmn

m

nxm

zz

zzzzz

Z

1

2221

11211

OM

L

3.1.2. Varyans-Kovaryans (Korelasyon) Matrisinin Hesaplanması:

Değişkenlerin standart değerlerini içeren ( nxmZ ) matrisine ait varyans-kovaryans

matrisi hesaplanır. Değişkenler standart değerlere dönüştürüldüğü için varyans-

kovaryans matrisi aynı zamanda aşağıdaki korelasyon matrisini ( nxmR ) verir. Bu matris

köşegen elemanları 1’e eşit ve simetriktir.

=

1

11

1

21

112

n

m

mxm

r

rrr

ROM

L

3.1.3. Korelasyon Matrisine Ait Özdeğerlerin ve Özvektörlerin Hesaplanması:

eeR λ= özdeğer eşitliğinden, korelasyon ( mxmR ) matrisine ait özdeğerler

( jλ ) ve özvektörler ( je ) hesaplanır; m adet değişken için m adet özdeğer ve m adet

özvektör hesaplanabilir ( j =1,2,..,m).

Hesaplanan birinci özdeğer orijinal değişken grubuna ait toplam varyansı en çok

açıklayan birinci temel bileşene aittir. Hesaplanan ikinci özdeğer orijinal değişken

grubuna ait toplam varyansı ikinci sırada en çok açıklayan ikinci temel bileşene aittir.

Özdeğeri 1’den büyük olan k adet temel bileşen seçilir (k<m). Böylece hesaplanan

33

k’inci özdeğer orijinal değişken grubuna ait toplam varyansı k’inci sırada toplam

varyansı açıklayan k’inci temel bileşene aittir.

Orijinal değişkenler standart hale dönüştürüldüğü için her bir değişkenin

ortalaması 0 varyansı ise 1 olacaktır. Toplam m adet değişken olduğunda ise toplam

varyans m’e eşit olacaktır. Özdeğeri 1’den küçük olan faktörlerin seçilmemesinin

nedeni bu faktörlerin toplam varyansı açıklamada tek bir değişkenden daha az açıklayıcı

güce sahip olmasından dolayıdır.

3.1.4. Özdeğerler ve Özvektörler Kullanılarak Faktör Yükleri Matrisin

Hesaplanması:

Hesaplanan özdeğerler ve özvektörler kullanılarak faktör yükleri matrisi ( mxkL )

hesaplanır. Burada, m= değişken sayısı, k= faktör (temel bileşen) sayısıdır.

=

mkm

k

mxk

ll

lllll

L

1

2221

11211

OM

L

Burada, jijij el λ= dir.

3.1.5. Temel Bileşenlerin Hesaplanması:

Değişkenlerin standart değerlerini içeren matrisle faktör yükleri matrisi

çarpılarak değişkenler faktörlere dönüştürülür ve nxk boyutlu faktör matrisi ( nxkF )

hesaplanır.

mxknxmnxk LZF =

=

nmn

m

nxk

zz

zzzzz

F

1

2221

11211

OM

L

mkm

k

ll

lllll

1

2221

11211

OM

L

=

nkn

k

ff

fffff

1

2221

11211

OM

L

Örneğin, birinci gözleme ait birinci faktör (birinci temel bileşen) aşağıdaki gibi

hesaplanır.

112112111111 ... mmlzlzlzf +++=

34

Yine birinci gözleme ait ikinci faktör (ikinci temel bileşen) aşağıdaki gibi

hesaplanacaktır.

212212121112 ... mmlzlzlzf +++=

Hesaplanan temel bileşenler birbirinden bağımsızdır. Diğer bir değişle temel

bileşenler kendi aralarında anlamlı korelasyon göstermezler.

3.1.6. Regresyon Yöntemi İle Faktör Skorları Matrisinin Hesaplanması:

3.1.6.1. Faktör Skorları Katsayı Matrisinin ( mxkB ) Hesaplanması:

Her bir standartlaştırılmış değişken vektörü ( jZ ) bağımlı değişken, faktör

matrisi ( nxkF ) bağımsız değişken olacak şekilde m adet regresyon analizi

gerçekleştirilerek faktör skorları katsayı matrisi ( mxkB ) hesaplanır.

ZFFFB '1' )( −=

3.1.6.2. Faktör Skorları Matrisinin ( nxkS ) Hesaplanması:

Standartlaştırılmış değişken matrisi ( nxmZ ) faktör skorları katsayı matrisi ( mxkB )

ile çarpılarak faktör skorları matrisi ( nxkS ) hesaplanır.

mxknxmnxk BZS =

=

nmn

m

nxk

zz

zzzzz

S

1

2221

11211

OM

L

mkm

k

bb

bbbbb

1

2221

11211

OM

L

=

nkn

k

ss

sssss

1

2221

11211

OM

L

Örneğin, birinci gözleme ait birinci faktör skoru aşağıdaki gibi hesaplanır.

112112111111 ... mm bzbzbzs +++=

Yine birinci gözleme ait ikinci faktör skoru aşağıdaki gibi hesaplanacaktır.

212212121112 ... mm bzbzbzs +++=

35

IV. BÖLÜM

UYGULAMA

Bu çalışmada üç temel yatırım aracı olan İMKB 100 endeksi, dolar ve altına ait

son beş günlük getiri değerleri dikkate alınarak (toplamda 15 değişken) bu yatırım

araçlarına ait yarınki getiri tahmin edilmeye çalışılmıştır. Öncelikle bu 15 değişken

kullanılarak TBFA gerçekleştirilmiş ve 8 adet faktör saptanmıştır. Bu faktörlere ait

skorlar YSA’da girdi olarak kullanılarak yarınki getirilerin ortalama getirinin altında mı

yoksa üstünde mi olacağı tahmin edilmeye çalışılmıştır.

4.1. Örnek ve Değişkenlerin Seçimi Çalışmanın örnek setini 02.01.1997-30.12.21011 tarihleri arasındaki 2957 adet

İMKB 100 endeksi getirileri ve ayrıca Türkiye’de menkul kıymet piyasasında yatırım

yapan yatırımcıların dikkate aldığı iki önemli yatırım aracı olan dolar ve altına ait

günlük getiriler kullanılmıştır.

Bu verilerin tamamı Merkez Bankası Elektronik Veri Dağıtım veri tabanı

sisteminden alınmıştır. (www.tcmb.gov.tr).

Üç yatırım aracına ait getiriler (İMKB100 endeksi, dolar ve altın) aşağıdaki gibi

hesaplanmıştır;

Burada; = Getiriyi, = Bugünün kapanış fiyatı, ise dünün kapanış

fiyatını temsil etmektedir.

nxmG gözlem matrisi n=2957 adet gözlem ve m=15 adet değişkenden

oluşmaktadır. Burada birinci değişken İMKB endeksi bugünkü getirisi (imkbbugün),

ikinci değişken İMKB endeksi dünkü getirisi (imkbdün), üçüncü değişken İMKB

endeksi iki gün önceki getirisi (imkbiki), dördüncü değişken İMKB endeksi üç gün

önceki getirisi (imkbüç), beşinci değişken İMKB endeksi dört gün önceki getirisi

(imkbdört), altıncı değişken doların bugünkü getirisi (dolarbugün), yedinci değişken

doların dünkü getirisi (dolardün), sekizinci değişken doların iki gün önceki getirisi

(dolariki), dokuzuncu değişken doların üç gün önceki getirisi (dolarüç), onuncu

değişken doların dört gün önceki getirisi (dolardört), onbirinci değişken altının bugünkü

getirisi (altınbugün), onikinci değişken altının dünkü getirisi (altındün), onüçüncü

değişken altının iki gün önceki getirisi (altıniki), ondördüncü değişken altının üç gün

36

önceki getirisi (altınüç) ve onbeşinci değişken altının dört gün önceki getirisi (altındört)

olarak kodlanmıştır.

Çalışmada kullanılan veriler çok sayıda (2957) olduğu için tablo şeklinde

verilmemiştir.

4.2. Temel Bileşen Faktör Analizi (TBFA) Uygulaması Bu çalışmada Temel Bileşenler Faktör Analizi (TBFA) uygulanmasındaki

birinci amaç, değişkenler arasındaki temel ilişki ve etkileşimleri saptamak olup anlamlı

faktörleri belirlemektir.

İkinci amaç, daha önce değinildiği gibi model seçiminde cimrilik ilkesine

(pirincipal of parsimony) uygun olarak, optimum sayıda “iyi tahmin edici” değişken

(faktör) saptamaktır.

TBFA’de üçüncü amaç, her değişken için faktör skorları hesaplamaktır. Bu

faktör skorları daha sonra gerçekleştirilen YSA modelinde girdi olarak kullanılmıştır.

TBFA ile saptanan ortak faktörler (bağımsız değişkenler) birbirleri ile korelasyon

göstermedikleri için bağımsız değişkenler arasında olası bir çoklu bağlantı

(multicollinearity) probleminden de kaçınılmış olunmaktadır.

Değişkenlerin Standart Hale Dönüştürülmesi:

( nxmG ) matrisi n=2957 adet gözlem ve m=15 adet değişkenden oluşmaktadır.

Değişkenlerin standartlaştırılmış değerleri çok sayıda olduğu için tablo şeklinde

verilmemiştir.

Varyans-Kovaryans (Korelasyon) Matrisinin Hesaplanması:

Değişkenlere ait korelasyon matrisi Tablo 2’de hesaplanmıştır.

37

Tablo 2 Değişkenlere Ait Korelasyon Matrisi ( nxmR )

İmkb

bugün

İmkb

dün

İmkb

iki

İmkb

üç

İmkb

dört

dolar

bugün

dolar

dün

dolar

iki

dolar

üç

dolar

dört

altın

bugün

altın

dün

altın

iki

altın

üç

altın

dört

imkbugün 1,000 ,003 ,026 -,030 ,010 ,079 -,010 ,032 ,020 -,021 -,122 ,029 -,015 ,037 -,032

imkbdün ,003 1,000 ,003 ,026 -,030 -,015 ,079 -,010 ,032 ,020 -,037 -,122 ,029 -,015 ,037

imkbiki ,026 ,003 1,000 ,003 ,027 ,012 -,015 ,079 -,010 ,032 -,005 -,037 -,122 ,029 -,015

imkbüç -,030 ,026 ,003 1,000 ,004 -,089 ,012 -,015 ,079 -,010 -,011 -,005 -,037 -,122 ,029

imkbdört ,010 -,030 ,027 ,004 1,000 ,005 -,088 ,012 -,015 ,078 -,036 -,011 -,005 -,038 -,123

dolarbugün ,079 -,015 ,012 -,089 ,005 1,000 -,001 -,001 -,001 -,001 ,064 ,151 ,045 -,009 ,052

dolardün -,010 ,079 -,015 ,012 -,088 -,001 1,000 -,001 -,001 -,001 ,035 ,064 ,151 ,045 -,009

dolariki ,032 -,010 ,079 -,015 ,012 -,001 -,001 1,000 -,001 -,001 ,115 ,035 ,064 ,151 ,045

dolarüç ,020 ,032 -,010 ,079 -,015 -,001 -,001 -,001 1,000 -,001 -,018 ,115 ,035 ,064 ,151

dolardört -,021 ,020 ,032 -,010 ,078 -,001 -,001 -,001 -,001 1,000 -,019 -,018 ,115 ,035 ,064

altınbugün -,122 -,037 -,005 -,011 -,036 ,064 ,035 ,115 -,018 -,019 1,000 -,100 ,037 -,020 ,020

altındün ,029 -,122 -,037 -,005 -,011 ,151 ,064 ,035 ,115 -,018 -,100 1,000 -,101 ,037 -,020

altıniki -,015 ,029 -,122 -,037 -,005 ,045 ,151 ,064 ,035 ,115 ,037 -,101 1,000 -,101 ,037

altınüç ,037 -,015 ,029 -,122 -,038 -,009 ,045 ,151 ,064 ,035 -,020 ,037 -,101 1,000 -,101

altındört -,032 ,037 -,015 ,029 -,123 ,052 -,009 ,045 ,151 ,064 ,020 -,020 ,037 -,101 1,000

Korelasyon Matrisine Ait Özdeğerlerin ve Özvektörlerin Hesaplanması:

eeR λ= özdeğer eşitliğinden, Tablo 2’de verilen korelasyon ( mxmR )

matrisine ait özdeğerler ( jλ ) ve özvektörler ( je ) hesaplanır; m=15 adet değişken için

15 adet özdeğer ve 15 adet özvektör hesaplanabilir ( j =1,2,..,m).

Orijinal değişkenler standart hale dönüştürüldüğü için her bir değişkenin

ortalaması 0 varyansı ise 1 olacaktır. Toplam m=15 adet değişken olduğunda ise toplam

varyans 15’e eşit olacaktır. Özdeğeri 1’den küçük olan faktörlerin seçilmemesinin

nedeni bu faktörlerin toplam varyansı açıklamada tek bir değişkenden daha az açıklayıcı

güce sahip olmasından dolayıdır.

38

Tablo 3 Özdeğerler ve Toplam Varyansın Faktörler Tarafından Açıklanan Kısmı

Faktörler

Özdeğerler %Varyans Kümilatif % Özdeğerler %Varyans Kümilatif %

1 1,358 9,054 9,054 1,358 9,054 9,054

2 1,292 8,611 17,665 1,292 8,611 17,665

3 1,239 8,263 25,928 1,239 8,263 25,928

4 1,163 7,751 33,679 1,163 7,751 33,679

5 1,137 7,583 41,262 1,137 7,583 41,262

6 1,125 7,499 48,762 1,125 7,499 48,762

7 1,052 7,017 55,778 1,052 7,017 55,778

8 1,003 6,683 62,462 1,003 6,683 62,462

9 ,973 6,484 68,946

10 ,926 6,176 75,121

11 ,851 5,671 80,793

12 ,837 5,579 86,372

13 ,763 5,085 91,457

14 ,725 4,831 96,288

15 ,557 3,712 100,000

Tablo 3’te görüldüğü gibi birinci faktör toplam varyansın %9,054’ünü, ikinci

faktör %8,611’ini, üçüncü faktör %8,263’ünü dördüncü faktör %7,751’ini, beşinci

faktör %7,583’ünü, altıncı faktör %7,499’nu, yedinci faktör %7,017’sini ve sekizinci

faktör %6,683’ünü açıklamaktadır. Tahmin edilen toplam 8 ortak temel faktör toplam

değişken varyansının %62,462’sini açıklamaktadır.

Özdeğerler ve Özvektörler Kullanılarak Faktör Yükleri Matrisin Hesaplanması:

Tablo 3’te hesaplanan özdeğerler kullanılarak, Tablo 4’te faktör yükleri matrisi

( mxkL ) hesaplanmıştır. Burada, m=15 (değişken sayısı), k=faktör (temel bileşen)

sayısıdır.

39

Tablo 4

Faktör Yükleri Matrisi ( mxkL )

1 2 3 4 5 6 7 8

altıniki ,552 ,235 ,222 -,422 ,139 ,072 ,127 ,076

altınüç -,409 ,314 ,360 ,232 ,275 -,244 ,209 -,303

altındört ,398 ,342 -,283 ,288 -,019 ,323 -,278 -,248

altındün -,399 ,470 -,356 -,150 -,174 ,000 ,296 ,152

dolarbugün -,131 ,446 -,014 -,354 -,265 ,262 -,394 ,210

dolarüç ,078 ,424 -,416 ,288 ,205 ,148 ,230 -,099

dolariki -,086 ,354 ,470 ,351 ,068 ,183 ,104 ,205

imkbiki -,255 -,074 ,170 ,389 ,210 ,222 -,291 ,385

altınbugün ,268 ,098 ,450 ,229 -,507 ,146 ,010 ,146

imkbdün ,325 -,037 -,004 ,106 ,463 -,251 -,345 ,110

dolardün ,274 ,342 ,124 -,152 ,118 -,506 ,193 ,391

imkbdört -,205 -,303 ,096 -,275 ,206 ,476 ,287 ,237

dolardört ,179 ,067 ,155 -,184 ,447 ,460 ,192 -,195

imkbugün -,316 ,170 -,115 -,210 ,350 -,039 -,405 ,199

imkbüç ,215 -,193 -,409 ,321 ,041 ,052 ,291 ,507

Temel Bileşenlerin Hesaplanması:

nxkF matrisinde gözlem sayısı çok sayıda olduğu için tablo şeklinde

verilmemiştir.

Regresyon Yöntemi İle Faktör Skorları Matrisinin Hesaplanması:

Faktör Skorları Katsayı Matrisinin Hesaplanması:

Tablo 5, TBFA ile hesaplanan faktör skor katsayıları matrisini vermektedir.

40

Tablo 5 Faktör Skor Katsayıları Matrisi ( mxkB )

1 2 3 4 5 6 7 8

imkbugün -,040 -,068 -,467 ,016 ,076 ,337 -,023 ,227

imkbdün ,115 -,467 -,281 -,030 ,247 -,023 -,070 ,152

imkbiki -,024 -,125 -,049 -,074 -,085 ,063 -,025 ,657

imkbüç ,098 ,189 ,000 -,518 ,182 -,375 -,033 ,283

imkbdört -,281 ,190 -,053 -,198 -,102 -,048 ,531 ,172

dolarbugün ,029 ,139 ,018 -,116 ,021 ,688 -,018 ,076

dolardün -,103 ,060 -,022 ,001 ,713 -,041 -,107 ,016

dolariki ,073 ,076 ,291 ,234 ,145 ,012 ,118 ,458

dolarüç ,525 ,246 -,107 ,037 ,045 -,179 ,088 ,039

dolardört ,148 -,072 -,050 ,118 -,037 -,027 ,638 -,031

altınbugün -,029 -,024 ,638 -,043 ,042 ,114 -,088 ,136

altındün ,073 ,631 -,106 -,004 ,120 ,100 -,059 -,029

altıniki ,017 -,108 ,116 -,057 ,409 ,158 ,376 -,199

altınüç ,020 ,084 -,053 ,672 ,047 -,197 ,000 ,083

altındört ,628 -,157 ,085 -,058 -,167 ,159 ,000 -,024

Faktör Skorları Matrisinin Hesaplanması:

Hesaplanan faktör skorları matrisi ( nxkS ) çok sayıda gözlem içerdiği için tablo

şeklinde verilmemiştir.

Faktörlerin Yorumlanması:

TBFA ile hesaplanan sekiz adet faktörün yorumlanmasını daha basite

indirgemek amacıyla “varimax” faktör döndürülmesi (varimax factor rotation) işlemi

gerçekleştirilmiştir. Bu yöntem, herhangi bir faktör üzerinde ağırlığı (etkisi) fazla olan

değişkenlerin belirlenmesini sağlayarak faktörlerin yorumlanmasını kolaylaştırmaktadır.

Yöntem herhangi bir bilgi kaybına neden olmamaktadır.

41

Tablo 6 Faktörler ve Faktör Yükleri

1 2 3 4 5 6 7 8

altındört ,762

dolarüç ,645

altındün ,764

imkbdün -,547

altınbugün ,762

imkbugün -,547

altınüç ,797

imkbüç -,593

dolardün ,818

altıniki ,513

dolarbugün ,789

dolardört ,724

imkbdört ,594

imkbiki ,731

dolariki ,526

Tablo 6’da varimax faktör döndürmesinden sonra hesaplanan değişkenlere ait

faktör yükleri verilmektedir. Burada, faktör yükü 0,50’nin üzerinde olan değişkenler

görülmektedir.

Tahmin edilen birinci faktör (1) altında, faktör yükü sırasına göre sırasıyla

altındört, dolarüç değişkenleri gruplanmıştır. altındört ve dolarüç değişkenlerine ait

faktör yükleri sırasıyla 0,752 ve 0,645’tir. Dolayısı ile birinci faktör çalışmamızda

dikkate aldığımız yatırım araçları getirilerindeki toplam değişimi birinci derecede

açıklamaktadır. Birinci faktör toplam değişken varyansının %9,054’ünü açıklamaktadır.

Tahmin edilen ikinci faktör (2) altında, faktör yükü sırasına göre altındün,

imkbdün değişkenleri gruplanmıştır. altındün ve imkbdün değişkenlerine ait faktör

yükleri sırasıyla 0,764 ve -0,547’dir. Ancak ikinci faktör ile bu faktör içinde yer alan

imkbdün değişkeni arasında negatif ilişki söz konusudur. İkinci faktör toplam değişken

varyansının %8,611’ini açıklamaktadır.

42

Tahmin edilen üçüncü faktör (3) altında, faktör yükü sırasına göre altınbugün,

imkbbugün değişkenlerinden oluşmaktadır. altınbugün ve imkbbugün değişkenlerine ait

faktör yükleri sırasıyla 0,762 ve -0,547’dir. Üçüncü faktör ile bu faktör içinde yer alan

imkbbugün değişkeni arasında negatif bir ilişki söz konusudur. Üçüncü faktör toplam

değişken varyansının %8,263’ünü açıklamaktadır.

Tahmin edilen dördüncü faktör (4) altında, faktör yükü sırasına göre altınüç,

imkbüç değişkenlerinden oluşmaktadır. altınüç ve imkbüç değişkenlerine ait faktör

yükleri sırasıyla 0,797 ve -0,593’tür. Dördüncü faktör ile bu faktör içinde yer alan

imkbüç değişkeni arasında negatif bir ilişki söz konusudur. Dördüncü faktör toplam

değişken varyansının %7,751’ini açıklamaktadır.

Tahmin edilen beşinci faktör (5) altında, faktör yükü sırasına göre dolardün,

altıniki değişkenlerinden oluşmaktadır. dolardün ve altıniki değişkenlerine ait faktör

yükleri sırasıyla 0,818 ve 0,513’tür. Beşinci faktör toplam değişken varyansının

%7,583’ünü açıklamaktadır.

Tahmin edilen altıncı faktör (6) altında, faktör yükü sırasına göre dolarbugün

değişkeninden oluşmaktadır. dolarbugün değişkenine ait faktör yükü 0,789’dur. Altıncı

faktör toplam değişken varyansının %7,499’unu açıklamaktadır.

Tahmin edilen yedinci faktör (7) altında, faktör yükü sırasına göre dolardört,

imkbdört değişkenlerinden oluşmaktadır. dolardört ve imkbdört değişkenlerine ait

faktör yükleri sırasıyla 0,724 ve 0,594’tür. Yedinci faktör toplam değişken varyansının

%7,017’sini açıklamaktadır.

Tahmin edilen sekizinci faktör (8) altında, faktör yükü sırasına göre imkbiki,

dolariki değişkenlerinden oluşmaktadır. imkbiki ve dolariki değişkenlerine ait faktör

yükleri sırasıyla 0,731 ve 0,526’dır. Sekizinci faktör toplam değişken varyansının

%6,683’ünü açıklamaktadır.

Bir sonraki bölümde İMKB Ulusal 100 endeksi, dolar ve altın ortalama getirisi

çıktı (bağımlı değişken), temel bileşen faktör analizinde elde edilen 8 faktör girdi

(bağımsız değişkenler) olarak kullanılarak yarınki getirinin genel ortalama getiririnin

altında mı yoksa üstünde mi olacağı tahmin edilmeye çalışılmıştır.

4.3. Yapay Sinir Ağı (YSA) Uygulaması

Bu çalışmada İMKB Ulusal 100 endeksi, dolar ve altının yarınki ortalama

getirisi çıktı (bağımlı değişken), temel bileşen faktör analizinde elde edilen FAC1_1,

FAC2_1, FAC3_1, FAC4_1, FAC5_1, FAC6_1, FAC7_1, FAC8_1 girdi (bağımsız

43

değişkenler) olarak kullanılarak yarınki getirinin genel ortalama getiririnin altında mı

yoksa üstünde mi olacağı tahmin edilmeye çalışılmıştır.

Analizde SPSS 16 programı kullanılmıştır. 02.01.1997 - 30.12.2011 tarihleri

arasında toplam 2957 veri kullanılmış olup bu verilerin %69,8’i (2065 tanesi) öğrenme

amaçlı, %30,2’si (892 tanesi) test amaçlı alınmıştır. Bu seçim tamamen tesadüfi

yöntemle yapılmıştır.

Şekil 21’de bağımsız değişkenlerin tahmini için kurulan yapay sinir ağında 3

katman yer almaktadır. Bu katmanlardan ilki girdi katmanı, son katman çıktı katmanı ve

aradaki katmanda gizli katmandır. Girdi katmanında 8 nöron bulunmaktadır. Bunlar

FAC1_1, FAC2_1, FAC3_1, FAC4_1, FAC5_1, FAC6_1, FAC7_1, FAC8_1’dir. Gizli

katmanda 7 nöron bulunmaktadır. Son katmanda yani çıktı katmanında 6 nöron

bulunmaktadır. Bunlar imkbort= 0, imkbort= 1, dolarort= 0, dolarort=1, altınort= 0,

altınort= 1 nöronlarıdır.

Getiri kategorisinde getiriyi, ise ortalama getiriyi göstermektedir. Ayrıca

imkbort= 0 ortalamanın altında ve imkbort= 1 ise ortalamanın üzerinde getiriyi

göstermektedir. Bu dolarort ve altınort değerleri içinde geçerlidir.

Şekil 21’deki yapay sinir ağı mimarisinde gizli katmandaki aktivasyon

fonksiyonu sigmoid ve çıktı katmanındaki aktivasyon fonksiyonu sigmoid olarak

belirlenmiştir.

Gizli katman ve gizli katmandaki düğüm sayısı belirli bir strateji olmadan

deneme yanılma yöntemi ile belirlenmiştir.

44

Şekil 21 Yapay Sinir Ağı Mimarisi

Tablo 7’de her bir nöron arasındaki bağlantıların ağırlıkları verilmiştir. Örneğin,

girdi katmanındaki FAC1_1 nöronu ile gizli katmanın 1. nöronu (H(1;1)) arasındaki

bağlantı ağırlık değerinin 0,621, girdi katmanındaki FAC2_1 nöronu ile gizli katmanın

2. nöronu (H(1;2)) arasındaki bağlantı ağırlık değerinin -0,206, girdi katmanındaki

FAC3_1 nöronu ile gizli katmanın 4. nöronu (H(1;4)) arasındaki bağlantı ağırlık

değerinin 1,276 olduğu görülmektedir. Ayrıca gizli katmanın 1. nöronu (H(1;1)) ile çıktı

katmanının imkbort= 0 nöronu arasındaki bağlantı ağırlık değerinin -0,142, gizli

45

katmanın 2. nöronu (H(1;2)) ile çıktı katmanının imkbort= 1 nöronu arasındaki bağlantı

ağırlık değerinin -0,359, gizli katmanın 3. nöronu (H(1;3)) ile çıktı katmanının dolarort=

1 nöronu arasındaki bağlantı ağırlık değerinin 0,049 ve gizli katmanın 5. Nöronu

(H(1,5)) ile çıktı katmanının altınort= 0 nöronu arasındaki bağlantı değerinin -0.775

olduğu görülmektedir.

Tablo 7 Nöronlar Arasındaki Bağlantı Ağırlıkları

Tahmin Edici

Tahmin

Gizli Katman Çıktı Katmanı

H(1:1) H(1:2) H(1:3) H(1:4) H(1:5) H(1:6) H(1:7) imkbort=0 imkbort=1 dolarort=0 dolarort=1 altınort=0 altınort=1

Girdi

Katmanı

(Bias) ,261 -,144 -,194 -,029 -,696 -,786 -,362

FAC1_1 ,621 ,040 -,079 ,661 ,517 ,548 -,096

FAC2_1 ,475 -,206 ,048 ,474 -,909 -,072 ,179

FAC3_1 ,964 -,875 ,521 1,276 ,093 1,421 -,851

FAC4_1 -,528 ,198 -,346 -,400 ,558 ,117 ,512

FAC5_1 ,180 -,183 ,365 -,895 -,782 -,847 ,509

FAC6_1 -,317 -,151 -,339 -,825 -,230 -,709 -,214

FAC7_1 -,305 ,203 -,147 -,345 ,058 -,426 ,213

FAC8_1 -,303 ,424 -,122 ,586 -,086 ,140 ,089

Gizli

Katman

(Bias) -,065 ,416 ,427 -,376 ,265 -,225

H(1:1) -,142 ,167 -,164 ,104 ,071 -,309

H(1:2) ,108 -,359 -,188 -,073 ,085 -,090

H(1:3) -,657 ,338 ,049 -,149 -,093 ,077

H(1:4) ,202 -,103 -,432 ,408 ,334 -,296

H(1:5) ,424 -,379 ,259 -,253 -,775 ,547

H(1:6) ,335 -,552 -1,363 1,409 -,248 ,340

H(1:7) ,031 -,282 ,462 -,288 ,083 ,084

Şekil 21 ve Tablo 7’de verilen YSA modelinin sonuçları imkbort için Tablo 8’de

verilmektedir. Model günlük yatırım stratejisi izleyen yatırımcılara önemli bilgiler

vermektedir. Tablo 8’de görüldüğü gibi YSA modeli eğitim sürecinde ortalama üstü

getiriyi %54,0 oranında doğru tahmin etmektedir. Ayrıca Tablo 8’de modeli test eden

46

test örneği sonucunda görüldüğü gibi ortalama üstü getiriyi %51,2 oranında doğru

tahmin etmektedir. Buradan şu sonuç çıkmaktadır. Yatırımcı FAC1_1, FAC2_1,

FAC3_1, FAC4_1, FAC5_1, FAC6_1, FAC7_1, FAC8_1 değişkenlerini modelde girdi

olarak kullandığında yarınki getiriyi ortalamanın üzerinde (imkbort= 1) tahmin

ediyorsa, yatırımcının ortalamanın üstü getiri elde etme olasılığı %51,2’dir. Yarınki

getiriyi ortalamanın altında (imkbort= 0) tahmin ediyorsa, yatırımcının ortalamanın altı

getiri elde etme olasılığı %57,9’dur.

Tablo 8 Sınıflandırma Başarısı (imkbort)

Örnek Gözlem

Tahmin

0 1 Doğruluk Yüzdesi

Eğitim 0 520 517 50,1%

1 473 555 54,0%

Toplam Yüzde 48,1% 51,9% 52,1%

Test 0 265 193 57,9%

1 212 222 51,2%

Toplam Yüzde 53,5% 46,5% 54,6%

Şekil 21 ve Tablo 7’de verilen YSA modelinin sonuçları dolarort için Tablo 9’da

verilmektedir. Tablo 9’da görüldüğü gibi YSA modeli eğitim sürecinde ortalama üstü

getiriyi %61,6 oranında doğru tahmin etmektedir. Ayrıca Tablo 9’da modeli test eden

test örneği sonucunda görüldüğü gibi ortalama üstü getiriyi %65,4 oranında doğru

tahmin etmektedir. Buradan şu sonuç çıkmaktadır. Yatırımcı FAC1_1, FAC2_1,

FAC3_1, FAC4_1, FAC5_1, FAC6_1, FAC7_1, FAC8_1 değişkenlerini modelde girdi

olarak kullandığında yarınki getiriyi ortalamanın üzerinde (dolarort= 1) tahmin

ediyorsa, yatırımcının ortalamanın üstü getiri elde etme olasılığı %61,6’dır. Yarınki

getiriyi ortalamanın altında (dolarort= 0) tahmin ediyorsa, yatırımcının ortalamanın altı

getiri elde etme olasılığı %53,1’dir.

47

Tablo 9

Sınıflandırma Başarısı (dolarort)

Örnek Gözlem

Tahmin

0 1 Doğruluk Yüzdesi

Eğitim 0 575 445 56,4%

1 401 644 61,6%

Toplam Yüzde 47,3% 52,7% 59,0%

Test 0 217 192 53,1%

1 167 316 65,4%

Toplam Yüzde 43,0% 57,0% 59,8%

Şekil 21 ve Tablo 7’de verilen YSA modelinin sonuçları altınort için Tablo

10’da verilmektedir. Tablo 10’da görüldüğü gibi YSA modeli eğitim sürecinde ortalama

üstü getiriyi %19,0 oranında doğru tahmin etmektedir. Ayrıca Tablo 10’da modeli test

eden test örneği sonucunda görüldüğü gibi ortalama üstü getiriyi %20,1 oranında doğru

tahmin etmektedir. Buradan şu sonuç çıkmaktadır. Yatırımcı FAC1_1, FAC2_1,

FAC3_1, FAC4_1, FAC5_1, FAC6_1, FAC7_1, FAC8_1 değişkenlerini modelde girdi

olarak kullandığında yarınki altın getirisini 1 olarak (ortalamanın üstü getiri) tahmin

ederse bu tahmin güvenilir olmayacaktır. Ancak 0 olarak tahmin ederse (ortalamanın

altı getiri) bu tahmin oldukça güvenilir olacaktır (%80,7).

Tablo 10 Sınıflandırma Başarısı (altınort)

Örnek Gözlem

Tahmin

0 1 Doğruluk Yüzdesi

Eğitim 0 972 168 85,3%

1 749 176 19,0%

Toplam Yüzde 83,3% 16,7% 55,6%

Test 0 367 88 80,7%

1 349 88 20,1%

Toplam Yüzde 80,3% 19,7% 51,0%

48

V. BÖLÜM

SONUÇ VE ÖNERİLER

5.1. Sonuç ve Öneriler

Genel olarak sonuçlara baktığımıza tahmin edilen YSA modeli İMKB’ye ait

getirinin ortalama getirinin üzerinde olacağını (imkbort=1) %51,2 oranında ve yarınki

İMKB’ye ait getirinin ortalama getirinin altında olacağını (imkbort=0) %57,9 oranında

tahmin etmiştir. Ayrıca yarınki dolar getirisinin, ortalama getirinin üzerinde olacağını

(dolarort=1) %65,4 oranında ve yarınki dolar getirisinin, ortalama getirinin altında

olacağını (dolar=0) %53,1 oranında tahmin etmiştir. Bunlara ek olarak yarınki altın

getirisinin, ortalama getirinin üzerinde olacağını (altınort=1) %20,1 oranında ve yarınki

altın getirisinin, ortalama getirinin altında olacağını (altınort=0) %80,7 oranında tahmin

etmiştir.

Bu çalışmanın sonuçları özellikle İMKB 100 endeks getirisi için zayıf formda

piyasa etkinliği hipotezini (weak form market efficiency hypothesis) desteklemektedir.

Bilindiği gibi bu hipotez geçmiş tarihsel veriler kullanılarak hisse sende getirilerinin

tahmin edilemeyeceğini öngörür. Ancak dolar piyasası için bu hipotezin geçerli olduğu

söylenemez. Benzer biçimde altın piyasası dikkate alındığında özellikle modelin

ortalamanın altındaki getiriyi tahmin gücü oldukça yüksektir.

Sonuç olarak yapay sinir ağları, istatistikî yöntemlerden farklı olarak, verinin

özellikleri ile ilgili sağlanması gereken istatistikî varsayımlarda bulunmadığı gibi

algoritma veya matematiksel model geliştirmeye de gerek duymaz. Veri içindeki ilişki

kalıplarını ve desenleri tanıyarak öğrenir. Bu nedenle modelin kurulumu ve kullanımı

açısından basit, açık ve esnektir. Günümüzde, bu özellikleri ile yapay sinir ağları,

tahmin yöntemi olarak pek çok alanda kullanılmakta ve diğer yöntemlere tercih

edilmektedir. Problemin yapısına uygun olarak kurulmuş ve eğitilmiş bir yapay sinir

ağı, günümüzde kullanılan birçok tahmin metodundan çok daha iyi sonuçlar verecektir.

Bu çalışmada kullanılan yöntemin tek tek hisse senetleri bazında uygulanması

durumunda daha iyi sonuçlar alınabileceği düşünülmektedir.

49

KAYNAKÇA

Aras, S. (2008). Yapay sinir ağlarına duyarlılık analizleri. Yüksek Lisans Tezi, Dokuz

Eylül Üniversitesi Sosyal Bilimler Enstitüsü, 143s.

Asilkan, Ö., Irmak, S. (2009). İkinci el otomobillerin gelecekteki fiyatlaarının yapay

sinir ağları ile tahmin edilmesi. Süleyman Demirel Üniversitesi İktisadi ve İdari

Bilimler Fakültesi Dergisi, C 14, S 2, 375-391.

Ataseven, B. (2007). Satış öngörü modellemesi tekniği olarak yapay sinir ağlarının

kullanımı: “Petkim’de uygulanması”. Yüksek Lisan Tezi, Celal Bayar

Üniversitesi Sosyal Bilimler Enstitüsü, 118s.

Balas, C. E., Koç, M. L. ve Tür, R. (2010). Artificial neural networks based on principal

component analysis, fuzzy systems and fuzzy neural networks for preliminary

design of rubble mound breakwaters. Applied Ocean Research, 32, 425–433.

Batar, H. (2005). EEG işaretlerinin dalgacık analizi yöntemleri kullanarak yapay sinir

ağları ile sınıflandırılması. Yüksek Lisans Tezi, Kahramanmaraş Sütçü İmam

Üniversitesi Fen Bilimleri Enstitüsü, 89s.

Bayır, F. (2006). Yapay sinir ağları ve tahmin modellemesi üzerine bir uygulama.

Yüksek Lisan Tezi, İstanbul Üniversitesi Sosyal Bilimler Enstitüsü, 119s.

Bayru, P. (2007). Elektronik basında tüketici tercihleri analizi: Yapay sinir ağları ile

lojit modelin performans değerlendirmesi. Doktora Tezi, İstanbul Üniversitesi

Sosyal Bilimler Enstitüsü, 210s.

Boyacıoğlu, M., Kara, Y. (2007). Türk bankacılık sektöründe finansal güç derecelerinin

tahmininde yapay sinir ağları ve çok değişkenli istatistiksel analiz tekniklerinin

performanslarının karşılaştırılması. Dokuz Eylül Üniversitesi İktisadi ve İdari

Bilimler Fakültesi Dergisi, C.22, S.2, 197-217.

Civalek, Ö., Ülker, M. (2004). Dikdörtgen plakaların doğrusal olmayan analizinde

yapay sinir ağı yaklaşımı. İnşaat Mühendisleri Odası (İMO) Teknik Dergi, 3171-

3190.

Çuhadar, M., Kayacan, C. (2005). Yapay sinir ağları kullanılarak konaklama

işletmelerinde doluluk oranı tahmini: Türkiye’deki konaklama işletmeleri üzerine

bir deneme. Anatolia: Turizm Araştırmaları Dergisi, Cilt 16, Sayı 1, 1-7.

Dombaycı, Ö. A., Gölcü, M. (2009). Daily means ambient temperature prediction using

artificial neural network method: A case study of Turkey. Renewable Energy, 34,

1158–1161.

50

Efe, Ö., Kaynak, O. (2006). Yapay Sinir Ağları ve Uygulamaları. İstanbul: Boğaziçi

Üniversitesi Yayıları.

Eletter, S. F., Yaseen, S. G. (January 2010). Applying neural networks for loan

decisions in the Jordanian Commercial Banking System. International Journal of

Computer Science and Network Security, Vol 10, No 1.

Elmas, Ç. (2003). Yapay Sinir Ağları Kuram Mimari Uygulama. İstanbul: Seçkin

Yayıncılık.

Erilli, N. A., Eğrioğlu, E., Yolcu, U., Aladağ, Ç. H. ve Uslu, V. R. (2010). Türkiye’de

enflasyonun ileri ve geri yapay sinir ağlarının melez yaklaşımı ile öngörüsü.

Doğuş Üniversitesi Dergisi, 11(1), 42-55.

Güneri, N., Apaydın, A. (2004). Öğrenci başarılarının sınıflandırılmasıda lojistik

regresyon analizi ile sinir ağları yaklaşımı. Gazi Üniversitesi Ticaret ve Turizm

Eğitim Fakültesi Dergisi, 1, 170-188.

Güngör, E. (2007). Yapay sinir ağları yardımı ile makine arızalarının önceden tahmin

edilmesi. Yüksek Lisans Tezi, Kocaeli Üniversitesi Sosyal Bilimler Enstitüsü,

74s.

Güngör, İ., Çuhadar, M. (2005). Antalya iline yönelik Alman turist talebinin yapay sinir

ağları yöntemiyle tahmini. Gazi Üniversitesi Ticaret ve Turizm Eğitim Fakültesi

Dergisi, 1, 84-98.

Kaya, İ., Oktay, S. ve Engin, O. (2005). Kalite kontrol problemlerinin çözümünde

yapay sinir ağlarının kullanımı. Erciyes Üniversitesi Fen Bilimleri Enstitüsü

Dergisi, 21, (1-2), 92-107.

Kaynar, O., Taştan, S. ve Demirkoparan, F. (2010). Ham petrol fiyatlarının yapay sinir

ağları ile tahmini. Ege Akademik Bakış, 10(2), 559-573.

Kılağız, Y., Baran, A. (2009). Bilgi edinme hakkı yasası çerçevesinde yapılan

elektronik başvuruların yapay sinir ağları ile sınıflandırılması. Atatürk

Üniversitesi İktisadi ve İdari Bilimler Dergisi, Cilt 23, Sayı 4, 27-41.

Kıraç, N. (2011). Türkiye’de faaliyet gösteren ticari bankaların finansal risklerinin

yapay sinir ağları yaklaşımı ile belirlenmesi. Yüksek Lisans Tezi, Çukurova

Üniversitesi Sosyal Bilimler Enstitüsü, 40s.

Koleyni, K. (2009). Using artfical neural Networks for income convergence. Global

Journal of Business Research, Volume 3, Number 2.

Krieger, C. (1996). Neural Networks in Data Mining.

51

Kutlu, B., Badur, B. (Haziran 2009). Yapay sinir ağları ile borsa endeksi tahmini.

İstanbul Üniversitesi İşletme İktisadi Enstitüsü Dergisi-Yönetim, Yıl 20, Sayı 63,

25-40.

Li, E. Y. (1994). Artifical neural Networks and their business aplications. Information

& Management, 27, 303-313.

Öztemel, E. (2006). Yapay Sinir Ağları. İstanbul: Papatya Yayıncılık.

Papatla, P., Zahedi, M. F. ve Zekic-Susac, M. (2002). Leveraging the strengths of

choice models and neural networks: A multiproduct comparative analysis.

Decision Sciences, Volume 33, Number 3, 433-468.

Saalasti, S. (2003). Neural Networks for Heart Rate Time Series Analysis. Jyväskylä:

University of Jyväskylä.

Sağıroğlu, Ş., Beşdok, E., Erler, M. (2003). Mühendislikte Yapay Zeka Uygulamaları.

Kayseri: Ufuk Kitap

Saraç, T. (2004). Yapay sinir ağları. Seminer Projesi, Gazi Üniversitesi Endüstri

Mühendisliği Bölümü Ana Bilim Dalı, 71s.

Şen, Z. (2004). Yapay Sinir Ağları İlkeleri. İstanbul: Su Vakfı.

Tağluk, M. E., Akın, M. ve Sezgin, N. (2010). Classıfıcation of sleep apnea by using

wavelet transform and artificial neural networks. Expert Systems with

Applications, 37, 1600–1607.

Tolon, M., Tosunoğlu, N. (2008). Tüketici tatmini verilerinin analizi: Yapay sinir ağları

ve regresyon analizi karşılaştırılması. Gazi Üniversitesi İktisadi İdari Bilimler

Fakültesi Dergisi, 10/2, 247-259.

Torun, T. (2007). Finansal başarısızlık tahmininde geleneksel istatistiki yöntemlerle

yapay sinir ağlraının karşılaştırılması ve sanayi işletmeli üzerinde uygulama.

Doktora Tezi, Erciyez Üniversitesi Sosyal Bilimler Fakültesi, 178s.

Vashisth, R., Chandara, A. (2010). Predicting stcok returns in nifty index: An

application of artificial neural network. International Research Journal of

Finance and Economics, ISSN 1450-2887, Issue 49, 15-24.

Vural, B. B. (2007). Yapay sinir ağları ile finanasal tahmin. Yüksek Lisans Tezi,

Ankara Üniversitesi Sosyal Bilimler Enstitüsü, 152s.

Yazıcı, M. (2007). Bankalarda kobi kredilerini değerlendirmeye ilişkin bir yaklaşım:

Yapay sinir ağları. Doktora Tezi, Kadir Has Üniversitesi Sosyal Bilimler

Enstitüsü, 150s.

52

Yıldırım, Ş. (2002). Artificial neural network applications to control. Erciyes

Üniversitesi Fen Bilimleri Enstitüsü Dergisi, Cilt 18, Sayı 1-2.

Yıldız, B., Yezegel, A. (2010). Fundamental analysis with artifical neural network. The

International Journal of Business and Finance Research, Volume 4, Number 1.

Yıldız, Ö. (2006). Döviz kuru tahmininde yapay sinir ağlarının kullanımı. Yüksek

Lisans Tezi, Eskişehir Osmangazi Üniversitesi Sosyal Bilimler Enstitüsü, 148s.

Yurtoğlu, H. (2005). Yapay sinir ağları metodolojisi ile öngörü modellemesi: Bazı

makroekonomik değişkenler için Türkiye örneği. Uzmanlık Tezi, Devlet Planlama

Teşkilatı-Uzmanlık Tezleri, Yayın No:2683, 103s.

53

ÖZGEÇMİŞ

Adı Soyadı : Zuhat ERGİN

Doğum Tarihi : 19.10.1985

Doğum Yeri : Diyarbakır/Ergani

Email adresi : [email protected]

EĞİTİM DURUMU

Yüksek Lisans : 2007-2012 Çukurova Üniversitesi/ Adana

Sosyal Bilimler Enstitüsü

Ekonometri Anabilim Dalı

Lisans : 2003-2007 Çukurova Üniversitesi/Adana

Fen-Edebiyat Fakültesi

Matematik Bölümü

Lise : 1999-2002 Çağrıbey Lisesi/Adana