t.c. sÜleyman dem•irel Ün ivers• ites• i• fen bil• imler...
TRANSCRIPT
T.C.SÜLEYMAN DEM·IREL ÜN·IVERS·ITES·I
FEN B·IL·IMLER·I ENST·ITÜSÜ
YEN·I GLOBAL OPT·IM·IZASYON TEKN·I¼G·IVE UYGULAMASI
Havva GÖKKAYA
Dan¬smanDoç. Dr. Ahmet SAH·INER
YÜKSEK L·ISANS TEZ·IMATEMAT·IK ANAB·IL·IM DALI
ISPARTA - 2012
c 2012[Havva GÖKKAYA]
TEZ ONAYI
Havva GÖKKAYA taraf¬ndan haz¬rlanan �Yeni Global OptimizasyonTekni¼gi ve Uygulamas¬�adl¬tez çal¬smas¬asa¼g¬daki jüri üyeleri önünde Süley-man Demirel Üniversitesi Fen Bilimleri EnstitüsüMatematikAnabilimDal¬�ndaYÜKSEK L·ISANS TEZ·I olarak basar¬ile savunulmustur.
Dan¬sman Doç.Dr. Ahmet SAH·INERSüleyman Demirel Üniversitesi, Matematik Anabilim Dal¬
Jüri Üyesi Prof. Dr. Metin BASARIRSakarya Üniversitesi, Matematik Anabilim Dal¬
Jüri Üyesi Prof. Dr. Naz¬m UÇARSüleyman Demirel Üniversitesi, Fizik Anabilim Dal¬
Enstitü Müdürü Prof. Dr. Mehmet Cengiz KAYACAN
TAAHHÜTNAME
Bu tezin akademik ve etik kurallara uygun olarak yaz¬ld¬¼g¬n¬ve kullan¬lan tümliteratür bilgilerinin referans gösterilerek tezde yer ald¬¼g¬n¬beyan ederim.
Havva GÖKKAYA
·IÇ·INDEK·ILER
Sayfa·IÇ·INDEK·ILER. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . iÖZET. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . iiABSTRACT . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . iiiTESEKKÜR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ivSEK·ILLER D·IZ·IN·I . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . vÇ·IZELGELER D·IZ·IN·I . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . viS·IMGELER VE KISALTMALAR D·IZ·IN·I . . . . . . . . . . . . . . . . . . . . . . . vii1: G·IR·IS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
2: KAYNAK ÖZETLER·I . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
3: TEMEL KAVRAMLAR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
4: ARASTIRMA BULGULARI VE TARTISMA . . . . . . . . . . . . . . . . . 14
4:1: Diferansiyellenemeyen Fonksiyonlar ·Için Filled FonksiyonMetodu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
4:1:1: Filled fonksiyon ve özellikleri . . . . . . . . . . . . . . . . . . . . . 14
4:2: Tek Parametreli Filled Fonksiyon ve Özellikleri. . . . . . . . . . 17
4:3: Diferansiyellenemeyen Fonksiyonlar için Filled FonksiyonYard¬m¬yla Global Minimum Bulma . . . . . . . . . . . . . . . . . . . . 22
4:4: Yeni Filled Fonksiyon ve Özellikleri . . . . . . . . . . . . . . . . . . . . . 24
4:5: Uygulama . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
4:5:1: Fe-Mn ikili alas¬mlar¬n¬n yüzey iyilestirme islemi . 27
4:5:2: Problemin matematiksel modeli . . . . . . . . . . . . . . . . . . 28
4:5:3: Filled fonksiyon metodunun �zik problemineuygulanmas¬. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
5: SONUÇ VE ÖNER·ILER. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
KAYNAKLAR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
ÖZGEÇM·IS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
i
ÖZET
Yüksek Lisans Tezi
YEN·I GLOBAL OPT·IM·IZASYON TEKN·I¼G·I VE UYGULAMASI
Havva GÖKKAYA
Suleyman Demirel ÜniversitesiFen Bilimleri EnstitüsüMatematik Anabilim Dal¬
Dan¬sman: Doç. Dr. Ahmet SAH·INER
Bu çal¬sma bes bölümden olusmaktad¬r. Birinci ve ikinci bölümde konunun lite-ratürdeki yerinin belirlenmesi amac¬yla literatür özeti verilmis, tarihsel gelisi-minden bahsedilmis ve konunun amac¬aç¬klanm¬st¬r.
Üçüncü bölümde �lled fonksiyon metodu ve alt gradyan kavram¬ile ilgili baz¬temel kavramlar verilmistir.
Dördüncü bölümde öncelikle �lled fonksiyon metodunun alt¬nda yatan teori an-lat¬lm¬st¬r. Daha sonra literatürde tan¬mlanan baz¬�lled fonksiyonlar ve özel-likleri hakk¬nda bilgi verilmistir. Ayr¬ca farkl¬konsantrasyonlardaki Fe-Mn ikilialas¬mlar¬n¬n farkl¬tabaka ikililerinde ortak olarak maksimum mikrosertlik dere-cesine ulast¬¼g¬noktalar �lled fonksiyon metodu kullan¬larak bulunmustur.
Besinci bölümde ise yap¬lan çal¬smadan elde edilen sonuçlar ve baz¬öneriler or-taya konulmustur.
Anahtar Kelimeler: Alt gradyan, Filled fonksiyon metodu, Global optimizas-yon, Global minimumlast¬r¬c¬, Fe-Mn alas¬mlar¬.
2012, 44 sayfa
ii
ABSTRACT
M.Sc. Thesis
A NEW GLOBAL OPTIMIZATION TECHNIQUE AND ITSAPPLICATION
Havva GÖKKAYA
Suleyman Demirel UniversityGraduate School of Applied and Natural Sciences
Department of Mathematics
Supervisor: Assoc. Prof. Dr. Ahmet SAH·INER
This study consists of �ve chapters. In the �rst and second chapter, a summaryof the literature is given in order to determine the place of the topic in the lite-rature, later historical development of �lled function method is mentioned andthe aim of the subject is explained.
In the third chapter, some basic notions on �lled function method and on sub-gradient are mentioned.
In the fourth chapter, �rstly the theory underlying the �lled function methodis introduced. Then some �lled functions in the literature and their propertiesare explained. Also we applied the �lled function method to solving a globaloptimization problem which investigates the maximum microhardness of Fe-Mnbinary alloys in di¤erent layer pairs.
In the last chapter, the results of the study and some suggestions are given.
Keywords: Subgradient, Filled function method, Global Optimization, Globalminimizer, Fe-Mn alloys.
2012, 44 pages
iii
TESEKKÜR
Bu çal¬sma için beni yönlendiren, bilgi ve tecrübesiyle bana her konuda yard¬mc¬olan dan¬sman hocam Doç. Dr. Ahmet SAH·INER�e tesekkür ve sayg¬lar¬m¬sunar¬m.
Yüksek lisans e¼gitimim süresince maddi ve manevi olarak bana destek olanaileme tesekkür ederim.
Yüksek lisans e¼gitimime maddi destek sa¼glayan TÜB·ITAK (Proje No: (211T128))�atesekkür ederim.
2335�Y L�10No�lu Proje ile tezimi maddi olarak destekleyen Süleyman DemirelÜniversitesi Bilimsel Arast¬rma Projeleri Yönetim Birimi Baskanl¬¼g¬�na tesekkürederim.
Havva GÖKKAYAISPARTA, 2012
iv
SEK·ILLER D·IZ·IN·I
SayfaSekil 3:1: f : R2 ! R; f (x; y) = max fjxj ; jyjg fonksiyonu. . . . . . . . . . . 10
Sekil 4:1: Borür ve geçis tabakalar¬için k¬s¬ts¬z mikrosertlikgra�¼gi (%0:94 Mn için) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
Sekil 4:2: Borür ve geçis tabakalar¬için k¬s¬tl¬mikrosertlikgra�¼gi (%0:94 Mn için) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
Sekil 4:3: Geçis ve matris tabakalar¬için k¬s¬ts¬z mikrosertlikgra�¼gi (%0:42 Mn için) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
Sekil 4:4: Geçis ve matris tabakalar¬için k¬s¬tl¬mikrosertlikgra�¼gi (%0:42 Mn için) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
v
Ç·IZELGELER D·IZ·IN·I
SayfaÇizelge 4:1: %0:94Mn içeren Fe-Mn ikili alas¬m¬için katsay¬lar . . . . . 29
Çizelge 4:2: %0:76 Mn içeren Fe-Mn ikili alas¬m¬için katsay¬lar. . . . . 30
Çizelge 4:3: %0:42Mn içeren Fe-Mn ikili alas¬m¬için katsay¬lar . . . . . 30
vi
S·IMGELER VE KISALTMALAR D·IZ·IN·I
d YönL Lipschitz sabitiB�k f fonksiyonunun x�k noktas¬ndaki yuvas¬Dk S�k ¬n minumum yar¬çap¬D�f (x) f fonksiyonun x noktas¬ndaki sol türeviD+f (x) f fonksiyonun x noktas¬ndaki sa¼g türeviS�k f fonksiyonunun x�k izole minimumlast¬r¬c¬s¬ndaki basit
yuvas¬O (x�1; �1) x�1 noktas¬n¬n �1 komsulu¼gux� f fonksiyonunu global minimumlast¬r¬c¬s¬@f (x) f fonksiyonun x noktas¬ndaki alt diferansiyeli
(Alt gradyanlar¬n¬n kümesi)rf(x) f fonksiyonunun gradyan¬k:k Norm fonksiyonu f fonksiyonunun tan¬m kümesi� Parametre
vii
1: G·IR·IS
Günümüzde bilim adamlar¬dünyay¬daha iyi anlayabilmek ve sonras¬nda teknik
sorunlara çözüm bulabilmek için tüm problemleri matematiksel terimlerle tem-
sil etmektedirler. Gerçe¼gi matematiksel bir dille ifade etmeye yarayan bu temsil
etme sekline matematiksel modelleme ad¬verilmektedir.
Yasam boyu kars¬las¬lan problemlerin çözümlerinde daha iyiyi arama çabalar¬
matematik ve bilgisayardaki gelismelerle sonuç bulmaya baslam¬st¬r. Problem-
lerin matematiksel formüllerinin ve modellerinin yap¬lmas¬ile çözümlere ulas¬lma
imkan¬bulunmustur. ·Insano¼glu yüzy¬llard¬r yapt¬¼g¬islerin tümünde her zaman
en iyiyi planlam¬st¬r. Bu çabalar, bazen bir isçinin belirli bir kuvvetle mak-
simum yükü kald¬rabilmesi, bazen de uçaklardaki sürtünmenin minimuma in-
dirgenmesi olarak ortaya ç¬km¬st¬r. Matematikte bu süreç genellikle bir fonksi-
yonun de¼gerinin verilen k¬s¬tlar alt¬nda ya da k¬s¬ts¬z olarak maksimumlast¬r¬l-
mas¬ndan (minimumlast¬r¬lmas¬ndan) olusur. Matematik ve bilgisayar biliminde
optimizasyon, bir problemde belirli kosullar alt¬nda mümkün olan seçenekler
içerisinden en iyisini seçmek anlam¬na gelir ve hede�enen sonuç, optimizasyon
teknikleri kullan¬larak ulas¬lan sonuçtur. Optimizasyon teknikleri, yap¬lm¬s veya
yap¬lmakta olan isin en iyi çözümünü ortaya koymak için kullan¬lan tekniklerdir.
Bu teknikler kullan¬larak ortaya konulmus olan çözüm, optimum çözüm olarak
adland¬r¬l¬r. Hedef her zaman için bu optimum çözümü yakalayabilmektir.
Matematisel modellemenin temel amac¬; gerçek dünyan¬n farkl¬yönlerini tah-
min etmek, aç¬klamak, tan¬mlamak ve anlamakt¬r. ·Ilk olarak 1947 y¬l¬nda
do¼grusal ve az say¬da de¼giskenin kullan¬lmas¬yla baslanan matematiksel mo-
delleme sürecinde bu modellemenin her problem için geçerlili¼gi olmad¬¼g¬düsünce-
siyle do¼grusal olmayan modelleme ortaya ç¬km¬st¬r. Do¼grusal olmayan model-
lemede kars¬las¬lan zorluklar ile birlikte zamanla gelistirilen yöntemler bu mo-
dellerin çözümünde kullan¬lm¬st¬r. Bunun yan¬nda modelleme sonucu elde edilen
amaç fonksiyonlar¬n¬sürekli diferansiyellenebilen ve diferansiyellenemeyen fonksi-
yonlar olarak inceleme ihtiyac¬ortaya ç¬km¬st¬r.
1
Ekonomi, mühendislik, �zik, biyoloji, sosyoloji gibi bilimin birçok alan¬nda prob-
lemlerin çözümlerinin gerçe¼ge yak¬n olarak yap¬labilmesi için diferansiyellene-
meyen fonksiyonlarda lokal minimumlast¬r¬c¬civar¬ndaki fonksiyon davran¬s¬n¬
incelemek önemli arast¬rma konular¬ndan biri haline gelmistir. Örne¼gin uygu-
lamalar¬ (astronomi, jeo�zik, bireysel ve ticari görüntüleme, adli bilim, t¬bbi
görüntüleme gibi) birçok alanda görülen kaydedilmis bir sinyalin orjinal halini
elde etmek için kullan¬lan sinyal onar¬m problemlerinin büyük k¬sm¬, matematik-
sel olarak konveks diferansiyellenemeyen bir fonksiyonun minimizasyon proble-
mine dönüstürülebilir.
Genel olarak, di¼ger global optimizasyon metotlar¬yla benzer sekilde literatürde
yayg¬n olarak kullan¬lan �lled fonksiyonlar da diferansiyellenebilir amaç fonksi-
yonlar¬yla ilgilenir. Diferansiyellenemeyen bir fonksiyonla kars¬las¬ld¬¼g¬nda ise
metodun uygulanmas¬aç¬s¬ndan baz¬zorluklar ortaya ç¬kar.
1970 ten bu yana çok de¼giskenli fonksiyonlara uygulanan global optimizasyon
metotlar¬ndaki çal¬smalar devam etmektedir. K¬s¬ts¬z optimizasyon problem-
lerinde fonksiyonun lokal minimumlast¬r¬c¬lar¬n¬bulmak için birçok etkili yön-
tem varken global minimumlast¬r¬c¬y¬bulmak için çok az etkili yöntem vard¬r.
Global optimizasyon arast¬rmalar¬nda iki önemli sorun vard¬r:
(1) Lokal minimumlast¬r¬c¬s¬bilinen bir f (x) amaç fonksiyonunun daha küçük
fonksiyon de¼gerine sahip minimumlast¬r¬c¬s¬n¬n nas¬l bulunaca¼g¬,
(2) Yak¬nsaman¬n nas¬l de¼gerlendirilece¼gi ve buna göre durdurma kriterlerinin
nas¬l planlanaca¼g¬d¬r (Sahiner ve Mammadov, 2007).
Global optimizasyon metotlar¬probabilistik (olas¬l¬¼ga dayal¬) ve deterministik
metotlar olarak iki ana basl¬kta incelenir. Olas¬l¬¼ga dayal¬yaklas¬mlar varyas-
yonlara göre yap¬lan modellemelerden olusurlar. Deterministik yaklas¬mlar ise
bilinen de¼giskenler göz önüne al¬narak (formülasyonda olusabilecek de¼giskenler
dikkate al¬nmadan) yap¬lan klasik çözüm yöntemlerinden olusurlar. Probabilis-
tik yaklas¬mlar genel olarak çok de¼giskenli fonksiyonlara uygulanabilirken, de-
terministik yaklas¬mlar fonksiyonlar¬n baz¬özel s¬n¬�ar¬üzerine yo¼gunlas¬rlar.
2
Deterministik yaklas¬mlara covering, trajectory, tunneling ve �lled fonksiyon
metotlar¬örnek olarak verilebilir.
Bu çal¬sman¬n amac¬diferansiyellenemeyen amaç fonksiyonlar¬için yeni bir �lled
fonksiyon önermek ve önerilen �lled fonksiyonun bir gerçek hayat probleminde is-
leyisinin görülmesidir. Bu sebeple, çal¬smam¬zda alt gradyan kavram¬ve global
optimizasyon metotlar¬ndan �lled fonksiyon metoduyla ilgili bilgiler verilmis,
Lipschitz sürekli veya düzgün sürekli diferansiyellenemeyen bir amaç fonksiyonu
için alt gradyan kavram¬kullan¬larak yeni bir �lled fonksiyon önerilmistir. Son
olarak önerilen metodun uygulamas¬yap¬lm¬st¬r.
3
2: KAYNAK ÖZETLER·I
Global optimizasyon metotlar¬ndan biri olan �lled fonksiyon metodu ilk olarak
Ge (1983; 1987; 1990a; b) taraf¬ndan önerilmistir. Daha sonra Qin ile birlikte
�lled fonksiyon üzerine çal¬sm¬slard¬r (Ge ve Qin, 1987a, b). ·Ilerleyen y¬llarda
da birçok bilim adam¬n¬n yeni �kirlerle �lled fonksiyon ürettikleri çal¬smalar¬n¬
literatürde görmek mümkündür (Liu, 2001; 2002a; b; 2004; 2007; Liu ve Xu,
2004; Lin vd., 2007; 2009; Xu vd., 2001; Yang ve Shang, 2006; Wang ve Zhou,
2006;Wu vd., 2005; 2007a; b; Shang vd., 2007; Zhang vd., 2004; 2009a; b; 2010;
Zhang ve Xu, 2009; He vd., 2011; Wang vd., 2007; 2009; 2010; 2011a; b; 2012).
Simdiye kadar uygulanan metotlar¬n daha küçük fonksiyon de¼gerli minimum
noktas¬n¬bulmada eksikliklerinin oldu¼gu düsünülmüs ve �lled fonksiyon meto-
dunun umut verici, yeni �kirlere aç¬k, gelistirilebilir bir metot oldu¼gu görülmüs-
tür. Teoriksel ve algoritmik çal¬smalar sonucunda, �lled fonksiyon metodunun
tunneling metodu, the branch and bound metodu, lagrangian metodu ve proba-
bilistik metotlar gibi di¼ger global optimizasyon metotlar¬ndan daha iyi oldu¼gu
sonucuna var¬lm¬st¬r (Levy ve Montalvo, 1985; Nazareth, 1996; Nazareth ve Qi,
1996; Kanzow, 2000; Chen vd., 2002; Qi ve Yang, 2002; Tong vd., 2006). An-
cak �lled fonksiyon metodundaki parametrelerin key� seçimi bilgisayar hesapla-
malar¬nda sorun ç¬karabilmektedir. Bu sebeple key� parametre seçimi içer-
meyen ve diferansiyellenemeyen optimizasyon problemlerine de uygulanabilir
�lled fonksiyon metodu üzerine çal¬smalar devam etmektedir.
Diferansiyellenemeyen fonksiyonlar için kullan¬lan optimizasyon yöntemlerinden
biri olan subgradient (alt gradyan) yönteminin ad¬m uzunlu¼gu seçimi iki basl¬k
alt¬nda incelenmistir. ·Ilk olarak teoriksel yak¬nsakl¬k, daha sonra da teorik-
sel olarak yak¬nsak olmayan ama hesaplama da daha etkili bir yöntem ortaya
konulmustur (Bazaraa ve Sherali, 1981). Diferansiyellenemeyen optimizasyon
problemleri için kullan¬lan alt gradyan yönteminde basar¬l¬iterasyonlar için yeni
ad¬m uzunlu¼gunu tahmin etmek büyük sorunlardan biridir. Bu sorundan kurtul-
mak için radar alt gradyan metodu gelistirilmistir (Beltran ve Heredia, 2005).
Daha sonra, diferansiyellenemeyen fonksiyonlara düzgün yaklas¬mlar yapmak
4
için baz¬yönlerden de¼gistirilmis Lagrangian teorisindeki eski bir yönteme ben-
zeyen, basit bir yöntem gelistirilmistir (Nesterov, 2005). ·Ilerleyen y¬llarda da
alt gradyan yönteminin gelistirilmesi ile ilgili çal¬smalara devam edilmistir (Nes-
terov, 2008; 2009; 2011). Alt gradyan yönteminin çok az bilinen fakat uygula-
mada alt gradyan¬n a¼g¬r ve genis çal¬smas¬n¬kolaylast¬ran, ¬raksak serilerin ad¬m
uzunlu¼gu kural¬kullan¬lm¬st¬r. Kullan¬lan birinci özellik iterasyon metoduyla
yak¬nsakl¬k, ikincisi de bir lineer program¬n Lagrangian dualinin maksimizas-
yonundaki öncelikli tahminlerdir (Anstreicher ve Wolsey, 2009).
Konveks olmayan fonksiyonlar da alt gradyan metodunun kullan¬m¬ için ba-
sit, h¬zl¬ algoritmalar gelistirilmis ve azalmayan alt gradyan metotlar¬n¬n var
olan teoriksel bilgisi ile birlestirilmistir. Ayr¬ca yeni ad¬m uzunluklar¬, yak¬n-
sakl¬k oranlar¬ve yak¬nsakl¬k oranlar¬tahmini gibi katk¬lar sa¼glanm¬st¬r (Nedic,
2002). De¼gistirilmis alt gradyan algoritmas¬n¬n yerine, kesin olmayan de¼gisti-
rilmis alt gradyan algoritmas¬ gelistirilmistir (Burachik vd., 2010). Kesin ol-
mayan minimizasyon, de¼gistirilmis alt gradyana göre daha az hesaplama ile
çözüme ulasma imkan¬vermistir. Spektral fonksiyonlar¬n alt gradyan¬için pro-
jeksiyon dönüsümüne dayal¬yeni bir yaklas¬m gelistirilmistir (Travain ve Tra-
ore, 2002). Konveks yada konkav fonksiyonlar¬n eyer noktalar¬hesaplanarak alt
gradyan metodu kullan¬lm¬st¬r (Nedic ve Ozdaglar, 2009). Kontrol edilebilir ak¬s
sistemleri için bir alt gradyan algoritmas¬gelistirilmistir (Gokbayrak ve Selvi,
2009). Daha sonra, minimum noktas¬na di¼ger optimizasyon metotlar¬ndan daha
iyi bir yak¬nsakl¬k sa¼glayan normallestirilmis artan alt gradyan metodu ortaya
ç¬km¬st¬r. Bu metotta birçok fonksiyonun birlesiminin ortak lokal minimum nok-
tas¬arast¬r¬lm¬st¬r. Bir noktadan baslanarak belli bir arast¬rma yönünde, her
bir bilesen fonksiyonun normallestirilmis alt gradyan¬hesaplanarak iterasyonlar
olusturulmustur (Shi vd., 2009).
5
3: TEMEL KAVRAMLAR
Bu bölümde alt gradyan kavram¬n¬ve �lled fonksiyon metodunun isleyisini daha
iyi anlayabilmek için bize yol gösterecek baz¬tan¬mlar verilecektir.
Tan¬m 3:1: Verilen bir X uzay¬üzerinde tan¬mlanan k:k : X ! R fonksiyonu
asa¼g¬daki sartlar¬sa¼gl¬yorsa
(N1) Her x 2 X için kxk = 0, x = 0;
(N2) Her x 2 X ve � 2 K için k�xk = j�j kxk,
(N3) Her x; y 2 X için kx+ yk � kxk+ kyk
k:k fonksiyonuna bir norm, (X; k:k) ikilisine normlu uzay denir. k:k fonksiyonu
reel de¼gerli fonksiyondur.
Tan¬m 3:2: U � Rn aç¬k bir küme olmak üzere f : U ! R bir fonksiyon,
� = (�1; �2; :::; �n) 2 U ve u = (u1; u2; :::; un) birim vektör olsun.
limh!0
f (�+ hu)� f (�)h
= limh!0
f (�1 + hu1; :::; �n + hun)� f (�1; �2; :::; �n)h
limiti mevcut ise f nin � noktas¬nda u vektörü yönünde yönlü türevi vard¬r
denir. Bu limit de¼gerine de f nin u vektörü yönünde yönlü türevi denir ve
Duf (�) = Duf (�1; �2; :::; �n)
olarak gösterilir.
Tan¬m 3:3: f : Rn ! R bir fonksiyon olsun.
limh!0
f (x0 + h)� f (x0)� L (h)jhj = 0
olacak sekilde bir L lineer fonksiyoneli varsa f fonksiyonu x0 noktas¬nda dife-
ransiyellenebilirdir denir.
Tan¬m 3:4: E¼ger bir C � Rn kümesi 8x1; x2 2 C ve 8� 2 [0; 1] için
(�x1 + (1� �)x2) 2 C (3:1)
sart¬n¬sa¼gl¬yorsa bu C kümesi konveks küme olarak adland¬r¬l¬r. (3:1) de ifade
6
edilmek istenen; e¼ger iki nokta konveks kümenin eleman¬ysa bu iki nokta aras¬n-
daki do¼gru üzerinde bulunan bütün noktalar da bu konveks kümenin eleman¬d¬r.
C kümesinin konveks kabu¼gu ise C kümesindeki bütün elemanlar¬ içeren en
küçük konveks kümedir.
Tan¬m 3:5: U; Rn de bos olmayan bir küme ve f : U ! R bir fonksiyon olsun.
Her x1; x2 2 U ve her � 2 (0; 1) için
f (�x1 + (1� �)x2) � �f (x1) + (1� �) f (x2)
esitsizli¼gi sa¼glan¬yorsa, f fonksiyonu U da konvekstir denir (Bazaraa vd., 1993).
Yukar¬daki esitsizlik her x1; x2 2 U ve her � 2 (0; 1) için kesin olarak sa¼glan¬-
yorsa, f fonksiyonu U da kesin konvekstir. f : U ! R fonksiyonu �f; U da
konveks (kesin konveks) ise konkav (kesin konkav) olarak adland¬r¬l¬r.
x1 ve x2 noktalar¬ f fonksiyonunun tan¬m kümesinde farkl¬ iki nokta ve � 2
(0; 1) olmak üzere f (�x1 + (1� �)x2) ; �x1 + (1� �)x2 noktas¬ndaki f fonksi-
yonunun de¼gerini verirken, �x1 + (1� �)x2 ifadesi f (x1) ve f (x2) nin a¼g¬rl¬kl¬
ortalamas¬n¬verir. Yani konveks bir f fonksiyonu için �x1 + (1� �)x2 do¼gru
parças¬üzerindeki noktalarda f fonksiyonunun de¼geri (x1; f (x1)) ve (x2; f (x2))
noktalar¬n¬birlestiren kirise esit veya daha alttad¬r:
f (x2)� f (x1)x2 � x1
� y � f (x2)x� x2
oldu¼gundan
y � (f (x2)� f (x1)) (x� x2) + f (x2)x2 � x1x2 � x1
y � f (x2)x� f (x1)x� f (x2)x2 + f (x1)x2 + f (x2)x2 � f (x2)x1x2 � x1
(3:2)
x = �x1 + (1� �)x2 için (3:2) ifadesi
y � �f (x1) (x2 � x1) + (1� �) f (x2) (x2 � x1)x2 � x1
y � �f (x1) + (1� �) f (x2)
seklindedir.
7
Tan¬m 3:6: I � R olmak üzere, her x 2 I için
f (x)� f (x0) � c (x� x0)
ifadesini sa¼glayan bir c say¬s¬, I � R aral¬¼g¬nda tan¬ml¬ f : I ! R konveks
fonksiyonunun x0 noktas¬ndaki alt türevidir.
f : I ! R konveks bir fonksiyon ve
D�f (x) = limx!x�0
f (x)� f (x0)x� x0
D+f (x) = limx!x+0
f (x)� f (x0)x� x0
ise f fonksiyonunun I aral¬¼g¬ndaki x0 noktas¬ndaki alt türevlerinin kümesi bos
olmayan kapal¬[D�f (x) ; D+f (x)] aral¬¼g¬d¬r.
Bütün alt türevlerin [D�f (x) ; D+f (x)] kümesi f fonksiyonunun x0 noktas¬n-
daki alt diferansiyelidir. E¼ger alt diferansiyel sadece bir alt türev içeriyorsa f
fonksiyonu x0 noktas¬nda diferansiyellenebilirdir (Hiriart-Urruty ve Lamarechal,
1993).
Örnek 3:7: f : R ! R; f (x) = jxj konveks fonksiyonunun x = 0 daki alt
diferansiyeli [�1; 1] aral¬¼g¬d¬r. x0 < 0 ise herhangi bir noktadaki alt diferansiyel
f�1g ; x0 > 0 ise herhangi bir noktadaki alt diferansiyel f1g kümesidir.
Tan¬m 3:8: p 2 Rn s¬f¬rdan farkl¬bir vektör ve � bir skaler olmak üzere
H =�x : ptx = �
kosulunu sa¼glayan tüm noktalar Rn de bir hiperdüzlem olarak adland¬r¬l¬r. p ise
hiperdüzlemin normal vektörüdür (Bazaraa vd., 1993).
R2 de bir do¼gru, R3 de ise bir düzlem hiperdüzlemdir. Rn de bir hiperdüzlem
ise Rn nin (n� 1) boyutlu bir a�n alt uzay¬d¬r.
Tan¬m 3:9: E¼ger C � Rn konveks ve x 2 C ise g normali ile x noktas¬ndaki
8
�z j gT (z � x) = 0
hiperdüzlemi, C kümesi gT (z � x) � 0 yar¬uzay¬nda bu-
lunuyorsa x noktas¬nda C yi destekleyen hiperdüzlemdir.
E¼ger C kümesinin x noktas¬nda her mertebeden diferansiyeli mevcut ise C nin
x noktas¬ndaki te¼geti bir destekleyen hiperdüzlemdir (Bazaraa vd., 1993).
Tan¬m 3:10: f : U � Rn ! R fonksiyonu f(x; f (x)) : x 2 Ug kümesi ile tan¬m-
lan¬r. Bu küme fonksiyonun gra�¼gi olarak adland¬r¬l¬r. f fonksiyonunun gra�¼gi
ile ilgili iki küme insa etmek mümkündür.
f : U � Rn ! R konveks bir fonksiyon olmak üzere
f(x; y) : x 2 U; y 2 R; y � f (x)g
kümesi f nin gra�¼ginin üst k¬sm¬d¬r ve epif ile gösterilir.
f(x; y) : x 2 U; y 2 R; y � f (x)g
ile tan¬mlanan küme ise f nin gra�¼ginin alt k¬sm¬d¬r ve hypf ile gösterilir
(Bazaraa vd., 1993).
Bir f fonksiyonu konveks ise gra�¼ginin üst k¬sm¬; konkav ise gra�¼ginin alt k¬sm¬
konveks bir kümedir. Konveks bir f fonksiyonunun gra�¼ginin alt ve üst k¬s¬m-
lar¬ konveks küme olduklar¬ndan s¬n¬rlar¬ içerisindeki noktalarda destekleyen
hiperdüzlemleri vard¬r. Bu destekleyen hiperdüzlemler alt gradyan kavram¬n¬n
olusmas¬n¬sa¼glamaktad¬rlar.
Tan¬m 3:11: f : U ! R; Rn nin konveks aç¬k kümesinde tan¬ml¬reel de¼gerli
konveks bir fonksiyon olmak üzere, e¼ger bu uzayda U kümesindeki her x için
f (x)� f (x0) � vt (x� x0)
olacak sekilde bir v vektörü varsa, bu vektöre x0 noktas¬ndaki alt gradyan denir
(Bazaraa vd., 1993).
Tan¬m 3:12: f : U ! R konkav bir fonksiyon olsun. E¼ger U kümesindeki her
x için
9
f (x)� f (x0) � vt (x� x0)
olacak sekilde bir v vektörü varsa, bu vektöre x0 noktas¬ndaki alt gradyan denir
(Bazaraa vd., 1993).
Tan¬m 3:10 dan f nin x0 noktas¬ndaki alt gradyanlar¬n¬n kümesi (f nin x0
daki alt diferansiyeli) konveks bir kümedir. f fonksiyonunun x0 noktas¬ndaki
bütün alt gradyanlar¬n¬n olusturdu¼gu küme alt diferansiyel olarak adland¬r¬l¬r
ve @f (x0) ile gösterilir. Alt diferansiyel her zaman bos olmayan konveks kapal¬
bir kümedir. Alt gradyan¬n varl¬¼g¬diferansiyellenebilmeden ba¼g¬ms¬zd¬r. E¼ger
f fonksiyonu konveks ve diferansiyellenebilir ise @f (x0) = frf (x0)g d¬r. Yani
fonksiyonun gradyan¬ alt gradyan kümesini olusturur. Tersine, f fonksiyonu
konveks ve @f (x0) = fvg ise f fonksiyonu x0 noktas¬nda diferansiyellenebilirdir
(Bazaraa vd., 1993).
Örnek 3:13: f : R2 ! R; f (x; y) = max fjxj ; jyjg fonksiyonunun x0 = (0; 0)
daki alt gradyan¬, x = y do¼grusunun üzerindeki k¬s¬mda jyj ye, x = �y do¼grusu-
nun alt¬ndaki k¬s¬mda ise jxj e esittir.
42
00
xy0
2 244
1
2z
3
4
5
2
4
Sekil 3:1: f : R2 ! R; f (x; y) = max fjxj ; jyjg fonksiyonu
Tan¬m 3:14: f : Rn ! R bir fonksiyon olsun.
rf (x) = 0
10
sart¬n¬sa¼glayan x noktas¬na f fonksiyonunun duraksama noktas¬denir. Durak-
sama noktas¬bir minimum, maksimum ya da büküm noktas¬olabilir (Xu vd.,
2001).
Tan¬m 3:15: f : Rn ! R konveks bir fonksiyon olsun. f; x0 noktas¬nda alt
diferansiyellenebilir ve
0 2 @f (x0)
ise, yani v = 0 f nin x0 noktas¬ndaki alt gradyan¬ise x0 noktas¬f fonksiyonunun
bir minimumlast¬r¬c¬s¬d¬r.
f fonksiyonu x0 noktas¬nda diferansiyellenebilir oldu¼gunda bu ifade rf (x) = 0
seklindedir (Clarke, 1983).
Tan¬m 3:16: f : Rn ! R bir fonksiyon olsun.
rf (x) = 0
sart¬n¬sa¼glayacak sekilde fonksiyonun duraksama noktas¬olan fakat ekstremum
noktas¬olmayan x noktas¬na f fonksiyonunun eyer noktas¬denir (Xu vd., 2001).
Tan¬m 3:17: f : Rn ! R bir fonksiyon olsun. E¼ger
kxk ! +1) f (x)! +1
ise f ye global konveks denir.
Global konvekslik f nin bütün lokal minimumlast¬r¬c¬lar¬n¬ içeren kapal¬ ve
s¬n¬rl¬ � Rn kümesinin var olmas¬n¬, global ve lokal minimumlast¬r¬c¬lar¬n
bu kümenin iç noktas¬olmas¬n¬gerektirir. Ayr¬ca f (x) in hiçbir minimizasyon
dizisinin sonsuza ¬raksayamayaca¼g¬n¬garantiler (Xu vd., 2001).
Tan¬m 3:18: f : Rn ! R bir fonksiyon olsun. E¼ger
kxk ! +1) f (x)! �1
ise f fonksiyonuna global konkav denir.
11
Aç¬kça f (x) global konkav ise -f (x) global konvekstir ya da f (x) global konveks
ise �f (x) global konkavd¬r.
Global konkav bir fonksiyon sonsuzda bir global minimuma sahipken, global
konveks bir fonksiyon belirli bir yerde global minimuma sahiptir (Ge ve Qin,
1987).
Tan¬m 3:19: x1; x2 2 Rn ve x1 6= x2 olsun. E¼ger
h (�) = f (x1 + � (x1 � x2))
fonksiyonu � 2 [0; 1] için monoton azalan (artan) ise x1 � x2 ye f (x) in azalan
(artan) parças¬denir (Xu vd., 2001).
Önerme 3:20: x1�x2; f (x) in azalan (artan) parças¬olsun. E¼ger f (x) sürekli
diferansiyellenebiliyorsa
h0(�) = rf (x1 + � (x1 � x2))T (x1 � x2) < 0(> 0); 8� 2 [0; 1]
d¬r (Xu vd., 2001).
Tan¬m 3:21: x�k; f (x) fonksiyonunun bir izole minimum noktas¬olsun. x�k ¬
içeren ve kendisinden al¬nan her x noktas¬na uygulanan lokal minimum meto-
dunda x�k a yak¬nsayan, kendisinden olmayan herhangi bir x noktas¬na uygulanan
lokal minimum metodunda x�k a yak¬nsamayan, aç¬k ve ba¼glant¬l¬kümeye x�k ¬n
yuvas¬denir ve x�k ¬n yuvas¬B�k ile gösterilir (Han ve Han, 2001; Xu vd., 2001;
Liu, 2002).
Tan¬m 3:22: E¼ger ex�k noktas¬nda f (x) fonksiyonunun maksimumu var ise f (x)fonksiyonunun ex�k daki tepesi, �f (x) fonksiyonunun ex�k daki yuvas¬d¬r (Han veHan, 2001; Xu vd., 2001; Liu, 2002).
Tan¬m 3:23: E¼ger
f�x�k+1
�< f (x�k) ;
�f�x�k+1
�> f (x�k)
�ise f (x) fonksiyonunun x�k dan daha düsük (yüksek) x
�k+1 minimumlast¬r¬c¬s¬
12
vard¬r denir ve bu durumda f (x) fonksiyonunun x�k+1 daki B�k+1 yuvas¬B
�k dan
daha düsüktür (yüksektir) denir (Han ve Han, 2001; Xu vd., 2001; Liu, 2002).
Tan¬m 3:24: B�k ¬içeren ve kendisinden al¬nan her x 6= x�k için (x� x�k) ; f (x)
fonksiyonunun güçlü artan parças¬olan aç¬k ve ba¼glant¬l¬kümeye x�k izole mini-
mum noktas¬n¬n basit yuvas¬denir ve S�k ile gösterilir.
Tan¬m 3:25: S�k ; x�k izole minimum noktas¬n¬n basit yuvas¬olsun. O halde
Dk = min fkx� x�kk : x =2 S�kg
say¬s¬na S�k ¬n minimum yar¬çap¬denir (Xu vd., 2001).
Tan¬m 3:26: Y � Rn ve f : Y ! R bir fonksiyon olsun. Her x; y 2 Y için
jf (x)� f (y)j � L kx� yk
olacak sekilde bir L � 0 say¬s¬varsa f fonksiyonu Y üzerinde Lipschitz süreklidir
denir (Clarke, 1983).
13
4: ARASTIRMA BULGULARI VE TARTISMA
4:1:Diferansiyellenemeyen Fonksiyonlar ·Için Filled Fonksiyon Metodu
Bu bölümde �lled fonksiyon metodu teorik olarak incelenmis, literatürde dife-
ransiyellenemeyen fonksiyonlar için tan¬mlanm¬s baz¬�lled fonksiyonlar ve dife-
ransiyellenemeyen Lipschitz sürekli fonksiyonlar¬n yan¬s¬ra düzgün sürekli fonksi-
yonlar için de kullan¬labilen yeni bir �lled fonksiyon verilmistir.
4:1:1: Filled fonksiyon ve özellikleri
En temel anlamda �lled fonksiyon yöntemi f (x) amaç fonksiyonu için yedek
bir fonksiyon olusturmak demektir ve olusturulan bu fonksiyona �lled fonksiyon
denir. Filled fonksiyon metoduyla global optimizasyon problemi iki safhada
çözülür:
1: Safha: Tan¬m kümesinden herhangi bir x0baslang¬ç noktas¬seçilir, bu nok-
taya lokal optimizasyon metotlar¬ndan biri uygulanarak ona en yak¬n x�1 lokal
minimumlast¬r¬c¬s¬bulunur.
2: Safha: Bulunan x�1 lokal minimumlast¬r¬c¬s¬nda bir �lled fonksiyon insa edilir
ve x�1 noktas¬ndan daha küçük görüntüye sahip x0noktas¬bulunur. Daha sonra
x0noktas¬ baslang¬ç noktas¬ olarak kabul edilerek 1: safhaya geri dönülür ve
böylece f (x) fonksiyonunun f (x�2) < f (x�1) olacak sekilde x
�2 noktas¬bulunmus
olur. Bu islem �lled fonksiyon daha küçük görüntüye sahip bir lokal minimum-
last¬r¬c¬ bulamayana kadar tekrarlan¬r. Son bulunan mevcut lokal minimum-
last¬r¬c¬ f (x) amaç fonksiyonunun global minimumlast¬r¬c¬s¬ olur (Sahiner ve
Mammadov, 2007).
Rn üzerinde tan¬ml¬birden fazla minimumlast¬r¬c¬ya sahip f (x) amaç fonksi-
yonunun �lled fonksiyon metodu ile çözülebilmesi için asa¼g¬daki özelliklere sahip
olmas¬gerekir:
1: f : � Rn ! R Lipschitz sürekli (; f (x) amaç fonksiyonunun bütün mini-
mumlast¬r¬c¬lar¬n¬içeren kapal¬ve s¬n¬rl¬bir küme),
14
2: f (x) sonsuz say¬da minimumlast¬r¬c¬ya sahip olabilir fakat minimumlast¬r¬c¬lar-
daki farkl¬fonksiyon de¼gerleri sonsuz say¬da olmal¬,
3: kxk ! 1 iken f (x)!1 olmal¬d¬r.
Literatürde tan¬mlanan bütün �lled fonksiyonlar¬n kendine özgü tan¬mlar¬ol-
mas¬na ra¼gmen asa¼g¬daki gibi genel bir tan¬m verilebilir.
Tan¬m 4:1:1: x�1; f (x) in bir lokal minimumlast¬r¬c¬s¬ olsun. E¼ger P (x; x�1)
fonksiyonu asa¼g¬daki özellikleri sa¼glarsa P (x; x�1) a f (x) fonksiyonunun x�1 nok-
tas¬ndaki �lled fonksiyonu denir.
(i) x�1; P (x; x�1) fonksiyonunun bir lokal maksimumlast¬r¬c¬s¬veB
�1 yuvas¬P (x; x
�1)
fonksiyonun x�1 noktas¬ndaki tepesinin bir parças¬d¬r.
(ii) P (x; x�1) fonksiyonu B�1 yuvas¬ndan daha üstteki hiçbir yuvada duraksama
noktas¬na sahip de¼gildir.
(iii) E¼ger f (x) fonksiyonu B�1 dan daha düsük B�2 yuvas¬na sahipse, P (x; x
�1)
fonksiyonunu x�1 + ��x0 � x�1
�; (� > 0) ¬s¬n¬boyunca minimum yapacak sekilde
x0 2 B�2 noktas¬vard¬r.
Tan¬m 4:1:1; f (x) in yuva ve tepe kavram¬na ba¼gl¬bir tan¬md¬r.Bu tan¬ma göre
f (x) in sonlu say¬da lokal minimumlast¬r¬c¬s¬olmas¬gerekmektedir. Ayr¬ca x0
ile x�1 ¬bulunduran do¼gru parças¬boyunca bir minimumlast¬r¬c¬bulundurmal¬d¬r
(Zhang et al., 2010).
Ge (1983; 1987) taraf¬ndan önerilen ilk �lled fonksiyon asa¼g¬daki gibidir:
P (x; r; �) =1
r + f (x)exp
�kx� x
�1k2
�2
!: (4:1)
Ge (1987) bu �lled fonksiyonu diferansiyellenemeyen fonksiyonlara da genellestir-
mistir. Burada r ve � ayarlanabilir parametreler olup, seçimleri baz¬lokal mini-
mumlast¬r¬c¬lar¬n yuvalar¬n¬n minimum yar¬çaplar¬ile s¬n¬rland¬r¬lm¬st¬r. Ayr¬ca
P (x; r; �) �lled fonksiyonu f (x) in sonlu say¬da lokal minimumlast¬r¬c¬s¬n¬n ol-
mas¬n¬ gerektirmektedir. Parametrelerin, D = minx2S�1
kx� x�1k ; k@f (x)k � L;
x 2 ; c1 sabit ve 0 < � < � < 1 için
15
r + f (�x1 + (1� �)x2)r + f (�x1 + (1� �)x2)
> exp
�(� � �) (x1 � x2)
T [(� + �) (x1 � x2) + 2 (x2 � x�1)]�2
!olmak üzere
�2
r + f (x�1)� 2Dc1
L
sart¬n¬sa¼glamalar¬gerekmektedir. P (x; r; �) ve @P (x; r; �) ifadeleri �lled fonksi-
yonda bulunan exp��kx� x�1k
2 =�2�ifadesinden etkilendiklerinden�kx� x�1k
2 =�2
de¼geri çok küçük oldu¼gunda bu fonksiyonlardaki de¼gismeler ay¬rt edilemez. Hatta
r ve � parametreleri uygun seçilmezse P (x; r; �) fonksiyonunun global minimum-
last¬r¬c¬s¬yok olabilir.
Ge ve Qin (1990) sonraki bir çal¬smalar¬nda asa¼g¬daki global konveks �lled
fonksiyonu önermislerdir:
U (x;A; h) = � (kx� x0k) + ' (A [f (x)� f (x�1) + h]) :
Burada ' (t) ;
1: Her t 2 (�1;1) (ya da t 2 (�t1;1) (t1 > 0)) için '0(t) > 0;
2: t ! +1 iken '0(t) & 0; t'
0(t) & 0 (ya da t'
0(t) & d > 0); bu da '
0(t)
fonksiyonu 1tfonksiyonunda oldu¼gu gibi h¬zla 0 a do¼gru monoton azalacak,
3: t! +1 iken ' (0) = 0; ' (t)% B > 0 (ya da buna paralel olarak +1),
4: '0(0) > c
özelliklerini sa¼glayan sürekli diferansiyellenebilir tek de¼giskenli bir fonksiyon,
� (t) ise
� (0) = 0; t � 0 için �0 (t) � ea > 0özelliklerini sa¼glayan sürekli diferansiyellenebilir tek de¼giskenli baska bir fonksi-
yon; yeterince büyük A > 0 ve yeterince küçük h > 0 say¬lar¬
0 < h < f (x�1)� f (x�) ;
A'0(Ah) <
ea' (Ah)��fD0
�L
16
özelliklerindeki pozitif say¬lar; x�1 ve x� s¬ras¬yla f (x) fonksiyonu için lokal mini-
mumlast¬r¬c¬ve global minimumlast¬r¬c¬d¬r. fD0 ise x0 2 ; f (x0) > f (x�1) olacak
sekilde önceden sabitlenmis bir nokta olmak üzere fD0 = maxx2 kx� x0k sek-
linde tan¬mlan¬r.
(4:1) de verilen Ge taraf¬ndan önerilmis �lled fonksiyon birçok test problemle-
rine uygulanm¬s ve basar¬l¬oldu¼gu görülmüstür. Fakat �lled fonksiyonun key�iki
parametre ve üstel fonksiyon içermesi bilgisayar hesaplamalar¬nda çesitli s¬k¬n-
t¬lara yol açm¬st¬r. Bunun üzerine Ge ve Qin (1987) asa¼g¬daki tek parametreli
�lled fonksiyonu üretmislerdir:
Q (x; a) = � (f (x)� f (x�1)) e�kx�x�1k2 ; � > 0:
4:2: Tek Parametreli Filled Fonksiyon ve Özellikleri
Zhang vd. (2010), � Rn; f (x) in tüm minimumlast¬r¬c¬lar¬n¬içeren kapal¬,
s¬n¬rl¬bir küme olmak üzere f (x) in bu kümede sonlu say¬da lokal minimum-
last¬r¬c¬s¬n¬n oldu¼gunu varsayarak asa¼g¬daki optimizasyon problemini göz önüne
alm¬slard¬r:
minx2
f (x) : (4:2)
Burada f : Rn ! R global konveks bir fonksiyon oldu¼gunda ise
minx2Rn
f (x)
global optimizasyon problemi (4:2) deki optimizasyon problemine denk olur.
(4:2) probleminin çözümünde kullan¬lan �lled fonksiyon tan¬m¬daha öncekiler-
den farkl¬olarak asa¼g¬daki gibi verilmistir (Zhang vd., 2010).
Tan¬m 4:2:1: x�1; f (x) in bir lokal minimumlast¬r¬c¬s¬ olsun. E¼ger P (x; x�1)
fonksiyonu asa¼g¬daki özellikleri sa¼glarsa P (x; x�1), f (x) fonksiyonunun x�1 nok-
tas¬ndaki �lled fonksiyonu olarak adland¬r¬l¬r:
(i) x�1 noktas¬P (x; x�1) fonksiyonunun kesin bir lokal maksimumlast¬r¬c¬s¬d¬r.
(ii) 1 = fx 2 j f (x) � f (x�1) ; x 6= x�1g olmak üzere her x 2 1 için 0 =2
17
@P (x; x�1) d¬r.
(iii) x�1; f (x) in bir global minimumlast¬r¬c¬s¬olmas¬n. O halde P (x; x�1) fonksi-
yonunun herhangi bir lokal minimumlast¬r¬c¬s¬2 = fx 2 j f (x) < f (x�1)g
kümesinde olmak zorundad¬r.
Burada (ii) ve (iii) kosullar¬Tan¬m 4:1:1 deki (ii) kosulunun düzenlenmis ha-
lidir. Filled fonksiyonun herhangi bir lokal minimumlast¬r¬c¬s¬n¬n 2 kümesinde
olmas¬gerekti¼ginden (ii) ve (iii) kosullar¬Tan¬m 4:1:1 deki kosullardan daha
kesindir. Tan¬m 4:2:1 minimumlast¬r¬c¬n¬n bir do¼gru üzerinde olmas¬kosulunu
gelistirmistir. Bu tan¬mdaki sartlar¬sa¼glayan P (x; x�1) fonksiyonunun minimum-
last¬r¬c¬s¬n¬bulmak daha kolay olacakt¬r.
Rn üzerinde tan¬ml¬birden fazla minimuma sahip diferansiyellenemeyen f (x)
amaç fonksiyonunun �lled fonksiyon metodu ile çözülebilmesi için asa¼g¬daki özel-
liklere sahip olmas¬gerekir:
1: f : � Rn ! R Lipschitz sürekli (; f (x) amaç fonksiyonunun bütün mini-
mumlast¬r¬c¬lar¬n¬içeren kapal¬ve s¬n¬rl¬bir küme),
2: si 2 R olmak üzere @Psifi (x) �
Psi@fi (x),
3: @f (x) bos olmayan kompakt konveks bir küme ve herhangi bir v 2 @f (x)
için kvk � L olmal¬d¬r.
(4:2) deki amaç fonksiyonu Rn de Lipschitz sürekli bir fonksiyon olmak üzere,
önerilen bir parametreli �lled fonksiyon asa¼g¬da verilmistir (Zhang vd., 2010):
P (x; x�1; �) = �kx� x�1k+ �max [0; f (x)� f (x�1)] +1
�min [f (x�1) ; f (x)] : (4:3)
Burada k:k öklid normu, � > 0 ve x�1 noktas¬nda f (x) fonksiyonu kesin bir lokal
minimuma sahiptir.
(4:3) deki �lled fonksiyon f (x) � f (x�1) iken
P (x; x�1; �) = �kx� x�1k+ � [f (x)� f (x�1)] +1
�f (x�1)
ve f (x) < f (x�1) iken de
18
P (x; x�1; �) = �kx� x�1k+1
�f (x�1)
seklinde olur.
Teorem 4:2:2: x�1; f (x) in bir lokal minimumlast¬r¬c¬s¬olsun. E¼ger 0 < � <1
Lise x�1; P (x; x
�1; �) fonksiyonunun kesin bir lokal maksimumlast¬r¬c¬s¬d¬r.
·Ispat: x�1; f (x) in bir lokal minimumlast¬r¬c¬s¬oldu¼gundan �1 > 0 olmak üzere
her x 2 O (x�1; �1) için f (x) � f (x�1) kosulunu sa¼glayacak sekilde x�1 ¬n bir
O (x�1; �1) komsulu¼gu vard¬r. 0 < � <1
Lve x 6= x�1 olmak üzere her x 2 O (x�1; �1)
için
P (x; x�1; �) = �kx� x�1k+ � [f (x)� f (x�1)] +1
�f (x�1)
� �kx� x�1k+ �L kx� x�1k+1
�f (x�1)
<1
�f (x�1) = P (x
�1; x
�1; �)
olur. Yani x�1 noktas¬ P (x; x�1; �) fonksiyonunun kesin bir lokal maksimum-
last¬r¬c¬s¬d¬r.
Teorem 4:2:3: x�1; f (x) in bir lokal minimumlast¬r¬c¬s¬olsun. � > 0; � > 0 ve
f (x1) � f (x�1) ; f (x2) � f (x�1) olmak üzere 0 < kx1 � x�1k + � < kx2 � x�1k ;
kx1 � x2k � � olsun. E¼ger 0 < � < min�1L; �L�
ise
P (x2; x�1; �) < P (x1; x
�1; �) <
1
�f (x�1) = P (x
�1; x
�1; �)
dür.
·Ispat:
P (x2; x�1; �)� P (x1; x�1; �) = � (kx2 � x�1k � kx1 � x�1k) + � [f (x2)� f (x1)]
� � (kx2 � x�1k � kx1 � x�1k) + �L kx1 � x2k
= (kx2 � x�1k � kx1 � x�1k)��1 + �L kx2 � x1k
kx2 � x�1k � kx1 � x�1k
�� (kx2 � x�1k � kx1 � x�1k)
��1 + �L�
�
�< 0:
0 < � < min�1L; �L�
oldu¼gunda Teorem 3:2:2 ile birlestirilerek
19
P (x2; x�1; �) < P (x1; x
�1; �) <
1
�f (x�1) = P (x
�1; x
�1; �)
elde edilir.
Teorem 4:2:3; baz¬kosullar alt¬ndaki � parametresi için P (x; x�1; �) nün iyi bir
özelli¼ge sahip oldu¼gunu gösterir. x�1 noktas¬ndan uzaklast¬kça P (x; x�1; �) nün
de¼geri küçülür. Bu özellik P (x; x�1; �) fonksiyonunu minimumlast¬ran noktay¬
ararken ilk yuvaya dönülmemesini garantiler.
Teorem 4:2:4: x�1; f (x) in bir lokal minimumlast¬r¬c¬s¬, f (x1) � f (x�1) ve
x1 6= x�1 olacak sekilde bir x1 noktas¬olsun. � ve � Teorem 4:2:3 deki gibi olmak
üzere e¼ger 0 < � < min�1L; �L�
ise 0 =2 @P (x; x�1; �) dür. Yani x1; P (x; x�1; �)
nün bir duraksama noktas¬de¼gildir.
·Ispat: f (x1) � f (x�1) ve x1 6= x�1 oldu¼gundan
@P (x1; x�1; �) � �
x1 � x�1kx1 � x�1k
+ �@f (x1)
dir. d = x1�x�1kx1�x�1k olarak seçilirse, her � 2 @P (x1; x
�1; �) ve � 2 @f (x1) için h:i ;
Rn deki iç çarp¬m olmak üzere
h�; di < �hx1 � x�1; di
kx1 � x�1k+ � h�; di
dur. Di¼ger yandan
�hx1 � x�1; di
kx1 � x�1k+ � h�; di = �(x1 � x
�1)T (x1 � x�1)
kx1 � x�1k2 + �
h�; x1 � x�1ikx1 � x�1k
� �1 + � k�k x1 � x�1kx1 � x�1k
� �1 + �L
< 0
olaca¼g¬ndan, her � 2 @P (x1; x�1; �) için �Td < 0 d¬r. Yani 0 =2 @P (x; x�1; �) dür.
Teorem 4:2:4 asa¼g¬daki iki durumu aç¬klar:
(i) 0 < � < min�1L; �L�
oldu¼gunda f (x1) > f (x�1) kosulunu sa¼glayan her x1
için x1 � x�1; P (x1; x�1; �) nün x1 noktas¬ndaki azalan yönüdür.
20
(ii) E¼ger 0 2 @f (x) ise 0 =2 @P (x1; x�1; �) olur. Bu da hesaplamalarda üst yu-
valardaki minimumlast¬r¬c¬lar¬n göz önüne al¬nmamas¬n¬sa¼glar.
Teorem 4:2:5: x�1; f (x) in bir lokal minimumlast¬r¬c¬s¬olsun. � ve � Teorem
4:2:3 deki gibi, N = minkx�x�1k>kx�2�x�1k
x2="
f(x)�f(x�2)kx�x�1k�kx�2�x�1k ; x�2 noktas¬
f (x�2) < f (x�1) kosulunu sa¼glayan bir nokta, yeterince küçük " > 0 için
=" = fx 2 j f (x) = f (x�2) + "g olmak üzere e¼ger 0 < � < min�1L; �L�; N
ise P (x; x�1; �) ; 2 = fx 2 j f (x) < f (x�1)g kümesinde kesin bir lokal mini-
mumlast¬r¬c¬ya sahiptir.
·Ispat: x�1; f (x) in bir lokal minimumlast¬r¬c¬s¬d¬r fakat global minimumlast¬r¬c¬s¬
olmad¬¼g¬ndan f (x�2) < f (x�1) kosulunu sa¼glayan bir x
�2 lokal minimumlast¬r¬c¬s¬
vard¬r. f (x) in süreklili¼ginden fx 2 j f (x) = f (x�2) + "g ifadesini sa¼glayacak
yeterince küçük " > 0 vard¬r.
=" = fx 2 j f (x) = f (x�2) + "g
olmak üzere her x 2 =" için asa¼g¬daki iki durum söz konusudur:
(i) E¼ger kx�2 � x�1k � kx� x�1k ise P (x�2; x�1; �) < P (x; x�1; �) kosulunun sa¼glan-
mas¬için
�kx�2 � x�1k+1
�f (x�2) < �kx� x�1k+
1
�f (x)
kx� x�1k � kx�2 � x�1k <1
�(f (x)� f (x�2))
yani kx� x�1k > kx�2 � x�1k oldu¼gunda
0 < � <f (x)� f (x�2)
kx� x�1k � kx�2 � x�1k
olmal¬d¬r. N = minkx�x�1k>kx�2�x�1k
x2="
f (x)� f (x�2)kx� x�1k � kx�2 � x�1k
oldu¼gundan aç¬kça N > 0
d¬r. Her x 2 =" için P (x�2; x�1; �) < P (x; x�1; �) oldu¼gunu gösterir.
�" = fx 2 j f (x) � f (x�2) + "g � int
olsun.
21
(ii) �" ve =" kompakt kümeler oldu¼gundan
minx2�"
P (x; x�1; �) = P (x�3; x
�1; �)
dür. P (x�3; x�1; �) � P (x�2; x�1; �) oldu¼gu aç¬kt¬r.
minx2�"
P (x; x�1; �) = P (x�3; x
�1; �) = min
x2�" n="P (x; x�1; �)
ve �" n=" aç¬k bir küme oldu¼gundan x�3 2 �" n=" � int; P (x; x�1; �) nün bir
lokal minimumlast¬r¬c¬s¬d¬r.
Teorem 4:2:5 ve Teorem 4:2:4 ü birlestirerek 0 < � < min�1L; �L�; Niçin
P (x; x�1; �) nün 2 kümesinde kesin bir lokal minimumlast¬r¬c¬s¬oldu¼gu sonu-
cuna ulas¬l¬r.
4:3:Diferansiyellenemeyen Fonksiyonlar için Filled Fonksiyon Yard¬m¬yla
Global Minimum Bulma
Burada f : Rn ! R global konveks olmayan bir fonksiyon olmak üzere
minx2Rn
f (x)
optimizasyon problemi göz önüne al¬nm¬st¬r (Wang vd., 2012).
Wang vd. (2012) taraf¬ndan önerilen �lled fonksiyon asa¼g¬da verilmistir:
F (x; x�1; r) = ��kx� x�1k
2� �r3 + (min (f (x)� f (x�1) + r; 0))3� :Burada r > 0 sabit bir skaler, x�1 amaç fonksiyonunun bilinen bir lokal minimum-
last¬r¬c¬s¬ve � (t) : [0;+1)! (0;+1) asa¼g¬daki özelliklere sahip bir fonksiyon-
dur:
� (0) = 1 ve her t > 0 için � (t) > 0; �0(t) < 0:
Teorem 4:3:1: x�1; f (x) in bir lokal minimumlast¬r¬c¬s¬ise x�1; F (x; x
�1; r) fonksi-
yonunun kesin bir lokal maksimumlast¬r¬c¬s¬d¬r.
·Ispat: x�1; f (x) in bir lokal minimumlast¬r¬c¬s¬oldu¼gundan �1 > 0 olmak üzere
22
her x 2 O (x�1; �1) için f (x) � f (x�1) kosulunu sa¼glayacak sekilde x�1 noktas¬n¬n
bir O (x�1; �1) komsulu¼gu vard¬r. Her x 2 O (x�1; �1) nx�1 için
F (x; x�1; r) = ��kx� x�1k
2� r3 = F (x�1; x�1; r)elde edilir. Yani x�1 noktas¬F (x; x
�1; r) fonksiyonunun kesin bir lokal maksimum-
last¬r¬c¬s¬d¬r.
Teorem 4:3:2: x�1; f (x) in bir lokal minimumlast¬r¬c¬s¬olsun. E¼ger f (x1) �
f (x�1) ve x1 6= x�1 olacak sekilde bir x1 noktas¬varsa 0 =2 @F (x1; x�1; r) :
·Ispat: f (x1) � f (x�1) ve x1 6= x�1 oldu¼gundan
@F (x1; x�1; r) � 2r3�
0 �kx1 � x�1k2� (x1 � x�1)ve�@F (x1; x
�1; r) ;
x1 � x�1kx1 � x�1k
�=
�2r3�
0 �kx1 � x�1k2� (x1 � x�1) ; x1 � x�1kx1 � x�1k
�= 2r3�
0 �kx1 � x�1k2� kx1 � x�1k < 0elde edilir. Herhangi bir � 2 @F (x1; x�1; r) için �T
x1�x�1kx1�x�1k < 0 d¬r. Buradan
0 =2 @F (x1; x�1; r) dir.
Teorem 4:3:3: x�1; f (x) in bir lokal minimumlast¬r¬c¬s¬olsun fakat global mini-
mumlast¬r¬c¬s¬olmas¬n. Bu durumda F (x; x�1; r) ; 2 = fx 2 j f (x) < f (x�1)g
kümesi içerisinde bir x1 minimumlast¬r¬c¬s¬na sahiptir.
·Ispat: x1; f (x) in bir global minimumlast¬r¬c¬s¬olsun. Herhangi bir x 2 2için F (x1; x�1; r) < F (x; x�1; r) oldu¼gunu gösterelim. Burada üç durum söz
konusudur:
1: f (x) > f (x1) ve f (x) � f (x�1)� r durumunda e¼ger
0 < r <1
2(f (x�1)� f (x1))
ise
f (x)� f (x�1) + r � 0
23
olur.
2: f (x�1) > f (x) > f (x1) ; f (x) � f (x�1) + r < 0 ve f (x) � f (x�1) + 2r � 0
durumunda
F (x; x�1; r) = ��kx� x�1k
2� �r3 + (f (x)� f (x�1) + r)3� � 0 > F (x1; x�1; r)elde edilir.
3: f (x) � f (x1) ve f (x)� f (x�1) + 2r < 0 durumunda
f (x1)� f (x�1) + r � f (x)� f (x�1) + r; kx� x�1k > kx1 � x�1k
olur. Buradan
��kx� x�1k
2� < � �kx1 � x�1k2�0 > r3 + (f (x)� f (x�1) + r)
3 > r3 + (f (x1)� f (x�1) + r)3
elde edilir.
Bu üç ifadeden de F (x; x�1; r) > F (x1; x�1; r) oldu¼gu aç¬kt¬r.
4:4: Yeni Filled Fonksiyon ve Özellikleri
Sahiner vd. (2012), � Rn; f (x) in tüm minimumlast¬r¬c¬lar¬n¬içeren kapal¬,
s¬n¬rl¬bir küme olmak üzere f (x) in bu kümede sonlu say¬da lokal minimum-
last¬r¬c¬s¬n¬n oldu¼gunu varsayarak asa¼g¬daki optimizasyon problemini göz önüne
alm¬slard¬r:
minx2
f (x) : (4:4)
Tan¬m 4:4:1: x�1; f (x) in bir lokal minimumlast¬r¬c¬s¬ olsun. E¼ger F (x; x�1)
fonksiyonu asa¼g¬daki özellikleri sa¼glarsa F (x; x�1), f (x) fonksiyonunun x�1 nok-
tas¬ndaki �lled fonksiyonu olarak adland¬r¬l¬r:
(i) x�1 noktas¬F (x; x�1) fonksiyonunun kesin bir lokal maksimumlast¬r¬c¬s¬d¬r,
(ii) Her x 2 1 için 0 =2 @F (x; x�1) (e¼ger f (x) Lipschitz sürekli ise),
24
(iii) x�1; f (x) in bir global minimumlast¬r¬c¬s¬olmas¬n. O halde F (x; x�1) fonksi-
yonunun herhangi bir lokal minimumlast¬r¬c¬s¬2 kümesinde bulunmak zorun-
dad¬r;
Burada 1 = fx 2 Rnnx�1 : f (x) � f (x�1)g ve 2 = fx 2 Rn : f (x) < f (x�1)g
dir.
(4:4) deki amaç fonksiyonu Rn de Lipschitz sürekli veya düzgün sürekli dife-
ransiyellenemeyen bir fonksiyon olmak üzere, önerilen �lled fonksiyon asa¼g¬daki
gibidir:
S (x; x�1; �) = �kx� x�1k+�max f0; f (x)� f (x�1)g+� (min f0; f (x)� f (x�1)g) : (4:5)
(4:5) deki �lled fonksiyon f (x) � f (x�1) iken
S (x; x�1; �) = �kx� x�1k+ � (f (x)� f (x�1))
ve f (x) < f (x�1) iken
S (x; x�1; �) = �kx� x�1k+ � (f (x)� f (x�1))
olarak ifade edilir. Burada � : � R ! R asa¼g¬daki özelliklere sahip bir
fonksiyondur:
(i) �; üzerinde iki kez sürekli diferansiyellenebilir,
(ii) � (0) = 0; � (t) > 0; �0 (t) > 0; t�0(t)�(t)
< 1;8t 2 (0;+1) ;
(ii) limt!+1
t�0(t)�(t)
= +1:
Örne¼gin, � (t) = arctan t; � (t) = ln (1 + t) (Ge ve Qin, 1990).
Teorem 4:4:2: x�1; f (x) in bir lokal minimumlast¬r¬c¬s¬olsun. E¼ger � <�
"ise
x�1; S (x; x�1; �) fonksiyonunun kesin bir lokal maksimumlast¬r¬c¬s¬d¬r.
·Ispat: x�1; f (x) in bir lokal minimumlast¬r¬c¬s¬oldu¼gundan �1 > 0 olmak üzere
her x 2 O (x�1; �1) için f (x) � f (x�1) kosulunu sa¼glayacak sekilde x�1 noktas¬n¬n
bir O (x�1; �1) komsulu¼gu vard¬r. � <�
"ve x 6= x�1 olmak üzere her x 2 O (x�1; �1)
için
25
S (x; x�1; �) = �kx� x�k+ � (f (x)� f (x�))
� �� + �" < 0 = S (x�1; x�1; �)
elde edilir. Yani x�1 noktas¬S (x; x�1; �) fonksiyonunun kesin bir lokal maksimum-
last¬r¬c¬s¬d¬r.
Teorem 4:4:3: x�1; f (x) in bir lokal minimumlast¬r¬c¬s¬olsun. Ayn¬zamanda
x1 ve x2; 0 < kx1 � x�1k + � < kx2 � x�1k ve f (x�1) < f (x1) < f (x2) kosullar¬n¬
sa¼glayan iki nokta olsun. E¼ger 0 � � <��"; �"
ise
S (x2; x�1; �)� S (x1; x�1; �) < 0 = S (x�1; x�1; �)
dür.
·Ispat:
S (x2; x�1; �)� S (x1; x�1; �) = � (kx2 � x�1k � kx1 � x�1k) + � [f (x2)� f (x1)]
� (kx2 � x�1k � kx1 � x�1k)��1 + �" 1
kx2 � x�1k � kx1 � x�1k
�� (kx2 � x�1k � kx1 � x�1k)
��1 + �" 1
�
�< 0:
0 � � <��"; �"
oldu¼gunda Teorem 4:4:2 ile birlestirilerek
S (x2; x�1; �) < S (x1; x
�1; �) < 0 = S (x
�1; x
�1; �)
elde edilir.
Teorem 4:4:4: f (x) Lipschitz sürekli ve x�1; f (x) in bir lokal minimumlast¬r¬c¬s¬
olsun. E¼ger f (x1) � f (x�1) ; x1 6= x�1 olacak sekilde bir x1 noktas¬varsa ve k > 0
için � 1k� � �
��"; �"
ise 0 =2 @S (x1; x�1; �) :
·Ispat: f (x1) � f (x�1) oldu¼gundan
S (x1; x�1; �) = �kx1 � x�1k+ � (f (x1)� f (x�1))
� �kx1 � x�1k+ �k kx1 � x�1k
ve d = � x1�x�1kx1�x�1k olmak üzere
h@S (x1; x�1; �) ; di � �x1 � x�1kx1 � x�1k
+ �kx1 � x�1kx1 � x�1k
26
elde edilir. Buradan
� x1 � x�1kx1 � x�1k
+ �kx1 � x�1kx1 � x�1k
= �1� �k < 0
d¬r. Sonuç olarak her � 2 @S (x1; x�1; �) için �Td < 0 d¬r. Yani 0 =2 @S (x1; x�1; �)
dür.
Uyar¬4:4:5: E¼ger f (x) fonksiyonu düzgün sürekli fakat Lipschitz sürekli ol-
mayan bir fonksiyon ise @f (x1) = ; olacak sekilde bir x1 2 vard¬r.
Teorem 4:4:6: x�1; f (x) in bilinen bir lokal minimumlast¬r¬c¬s¬ olsun. f (x)
fonksiyonunun f (x) � f (x�1) iken Lipschitz sürekli ve f (x) < f (x�1) iken de
düzgün sürekli oldu¼gunu varsayal¬m. S (x; x�1; �) nün daha alttaki bir yuvada
lokal minimumlast¬r¬c¬s¬vard¬r.
·Ispat: E¼ger f (x) � f (x�1) ise S (x; x�1; �) nün bir lokal minimumlast¬r¬c¬s¬ol-
mad¬¼g¬Teorem 4:4:4 ten aç¬kt¬r. Aksi halde e¼ger f (x) Lipschitz sürekli ise ispat
Wang vd. (2012) taraf¬ndan verilmistir. E¼ger f (x) düzgün sürekli fakat Lip-
schitz sürekli de¼gilse ispat Uyar¬4:4:5 ten aç¬kt¬r.
4:5: Uygulama
Bu bölümde farkl¬mangan (Mn) konsantrasyonuna sahip demir-mangan (Fe-
Mn) ikili alas¬mlar¬n¬n bor ile yüzey iyilestirme sonucu olusan borür tabakas¬,
geçis bölgesi ve bordan etkilenmeyen matris bölgesinin ikiser ikiser alabilecek-
leri maksimum sertlik derecelerinin bulunmas¬problemi �lled fonksiyon metodu
kullan¬larak çözülecektir.
4:5:1: Fe-Mn ikili alas¬mlar¬n¬n yüzey iyilestirme islemi
Fe-Mn tabanl¬ alas¬mlar paslanmaz çelik ve manyetik olmayan çelik üretimi
için büyük önem tas¬maktad¬rlar. Ayr¬ca baz¬demir-mangan alas¬mlar¬ucuz
maliyetli olduklar¬ndan titresim ve gürültünün azalt¬lmas¬için çesitli alanlarda
yayg¬n olarak kullan¬lmaktad¬rlar. Ancak düsük mangan içerikli alas¬mlarda
as¬nma direnci ve mikrosertlik yetersizlikleri bulunmaktad¬r. Bunun için farkl¬
27
mangan konsantrasyonuna sahip alas¬mlar farkl¬s¬cakl¬klarda f¬r¬nlanarak as¬nma,
oksidasyon ve korozyon gibi mekanik özellikleri iyilestirme çal¬smalar¬yap¬lmak-
tad¬r.
Fe-Mn ikili alas¬mlar¬n¬n yüzey iyilestirme islemi difüzyon yöntemi ile farkl¬süre
ve farkl¬s¬cakl¬klarda ekabor-II ortam¬nda f¬r¬nda gerçeklestirilmistir. Bir tak¬m
özel yöntemler sonucunda so¼gutulan malzemelerin mikrosertlikleri ölçülmüstür
(Bektas vd., 2010). Bor ile yüzey iyilestirme isleminden sonra kesitten al¬nan
örneklerde optik ve sem (scanning electron microscop) ile yap¬lan gözlemler
sonucu alas¬mlarda;
(i) Borür tabakas¬,
(ii) Geçis bölgesi,
(iii) Matris ortaya ç¬km¬st¬r (Bektas vd., 2010).
4:5:2: Problemin matematiksel modeli
Farkl¬Mn konsantrasyonlar¬na sahip Fe-Mn ikili alas¬mlar¬n¬n 1273K s¬cakl¬kta
2, 4, 6, 8 saat, 3 saatte 1073, 1173, 1273, 1373K s¬cakl¬klarda difüzyon ile olus-
turulan borlama islemi sonucunda ortaya ç¬kan üç farkl¬bölgede mikrosertlik
ölçümleri yap¬lm¬st¬r (Bektas vd., 2010; Cal¬k vd., 2007).
Problemin matematiksel modeli olusturulurken farkl¬Mn konsantrasyonuna sahip
Fe-Mn ikili alas¬mlar¬n¬n 3 saat sürede 1073; 1173; 1273; 1373K s¬cakl¬klar¬n-
daki borlama sonucu elde edilen 3 ayr¬ tabakadaki mikrosertlik de¼gerleri kul-
lan¬lm¬st¬r. Elde edilen veriler için e¼gri uydurma metodu kullan¬larak bu veri
noktalar¬na en uygun e¼gri bulunmustur. Sonuç olarak herbir tabaka için ayn¬
amaç fonksiyonu elde edilmistir. Problemin amac¬n¬n farkl¬mangan konsantras-
yonlar¬na sahip Fe-Mn ikili alas¬mlar¬n¬n s¬cakl¬¼ga ba¼gl¬ olarak mikrosertlik-
lerinin maksimumlar¬n¬bulmak oldu¼gu düsünülürse k: tabakan¬n mikrosertli¼gi
asa¼g¬daki gibi ifade edilir:
f (xk) = ak + bk cos (xkzk) + ck sin (xkwk) : (4:6)
Buna göre n tane tabakan¬n mikrosertli¼gi su sekilde gösterilir:
28
f (x) =Pn
k=1 fk (xk) (4:7)
Denklem (4:7) de:
xk : k ¬nc¬tabakan¬n belli bir sürede borland¬¼g¬s¬cakl¬k,
ak; bk; ck; wk; zk : k ¬nc¬tabakan¬n mikrosertlik katsay¬lar¬,
n : tabaka ikilisi say¬s¬,
fk (xk) : k ¬nc¬tabakan¬n mikrosertlik derecesidir.
Problemin amac¬toplam mikrosertlik derecelerini maksimize etmek oldu¼gu için
optimizasyon problemi asa¼g¬daki sekilde tan¬mlan¬r:
min (�f (x)) = min (�Pn
k=1 fk (xk))
xk;min � xk � xk;maxPnk=1 (xk) = B = sabit.
(4:8)
4:5:3: Filled fonksiyon metodunun �zik problemine uygulanmas¬
Bu problem çözülürken borür, geçis ve matris tabakalar¬ikiserli olarak su sekilde
grupland¬r¬lm¬st¬r:
(i) Borür ve geçis tabakalar¬,
(ii) Borür ve matris tabakalar¬,
(iii) Geçis ve matris tabakalar¬.
0:94 wt.%Mn konsantrasyonuna sahip Fe-Mn ikili alas¬mlar¬nda bu ikili tabakala-
r¬n farkl¬s¬cakl¬klarda borlama islemi sonucunda olusan maksimum mikrosertlik
derecelerinin hesaplanmas¬için Çizelge 4:1 de verilen katsay¬lar kullan¬lm¬st¬r:
Çizelge 4:1: %0:94 Mn içeren Fe-Mn ikili alas¬m¬için katsay¬lar
a1 b1 c1 z1 w1
378:7 569:7 777 0:13 0:005342
a2 b2 c2 z2 w2
171:8 �19:8 29:02 0:01601 0:01601
a3 b3 c3 z3 w3
143:5 35:48 �3:573 0:01939 0:01939
29
0:76 wt.% Mn konsantrasyonuna sahip Fe-Mn ikili alas¬m¬için Çizelge 4:2 de
verilen katsay¬lar kullan¬lm¬st¬r:
Çizelge 4:2: %0:76 Mn içeren Fe-Mn ikili alas¬m¬için katsay¬lar
a1 b1 c1 z1 w1
904:6 �445:2 �178:9 0:2 0:01229
a2 b2 c2 z2 w2
173:5 �6:619 21:54 0:01134 0:01134
a3 b3 c3 z3 w3
168:5 0:3593 �0:3478 �0:09439 �0:09439
0:42 wt.% Mn konsantrasyonuna sahip Fe-Mn ikili alas¬m¬için Çizelge 4:3 de
verilen katsay¬lar kullan¬lm¬st¬r:
Çizelge 4:3: %0:42 Mn içeren Fe-Mn ikili alas¬m¬için katsay¬lar
a1 b1 c1 z1 w1
770:6 �49:1 476:5 0:1 0:01075
a2 b2 c2 z2 w2
162:9 �11:19 �24:74 0:02121 0:02121
a3 b3 c3 z3 w3
143:6 �19:42 �13:5 0:02026 0:02026
Burada a1; b1; c1; z1; ve w1 borür tabakas¬na ait katsay¬lard¬r. a2; b2, c2, z2, w2
ve a3; b3, c3, z3, w3 ise s¬ras¬yla geçis ve matris tabakalar¬na ait katsay¬lard¬r.
E¼ger farkl¬alas¬mlar için bütün tabaka ikililerinin mikrosertlik fonksiyonlar¬nda
x1 + x2 = 2746;
1073 � x1 � 1373;
1073 � x2 � 1373:
k¬s¬tlar¬kullan¬l¬rsa problem tek de¼giskenli optimizasyon problemine dönüsmüs
olacakt¬r.
30
Sekil 4:1 ve Sekil 4:3 de k¬s¬ts¬z olarak iki de¼giskenli amaç fonksiyonlar¬n¬n, Sekil
4:2 ve Sekil 4:4 de de k¬s¬t kullan¬larak tek de¼giskenli hale dönüstürülmüs amaç
fonksiyonlar¬n¬n çok lokal minimumlu (multimodal) gra�¼gi verilmistir. Sekil 4:2
ve Sekil 4:4 deki tek de¼giskenli fonksiyonlara �lled fonksiyon metodu uygulan-
madan önce lokal maksimumlast¬r¬c¬lar¬bulunmustur. Normalde çok de¼giskenli
fonksiyonlara da böyle bir islem uygulanabilir fakat fonksiyonun birden çok lokal
maksimumlast¬r¬c¬ya sahip olmas¬problemi karmas¬k yapar. Çünkü matematik-
sel programlamada neredeyse bütün algoritmalar lokal maksimum (minimum)
bulma metodu içerdikleri için lokal maksimum (minimum) noktalar¬nda dura-
cak ve çok lokal maksimumlu (minimumlu) fonksiyonun global maksimum (mi-
nimum) noktas¬n¬bulamayacaklard¬r.
%0:94Mn konsatrasyonuna sahip Fe-Mn ikili alas¬m¬n¬n borür ve geçis tabakala-
r¬nda ortak olarak maksimum mikrosertli¼ge ulasaca¼g¬s¬cakl¬k 1373K olarak bu-
lunmustur (Sekil 4:1 ve Sekil 4:2).
Sekil 4:1: Borür ve geçis tabakalar¬için k¬s¬ts¬z mikrosertlik gra�¼gi (%0:94 Mn için)
31
1000 1100 1200 1300 14000
500
1000
1500
x1
f(x1+x2)
Sekil 4:2: Borür ve geçis tabakalar¬için k¬s¬tl¬mikrosertlik gra�¼gi (%0:94 Mn için)
%0:76Mn konsatrasyonuna sahip Fe-Mn ikili alas¬m¬için borür ve geçis tabakala-
r¬nda ortak olarak 1366:6635K de maksimum mikrosertli¼ge ulast¬klar¬belirlen-
mistir.
%0:42Mn konsatrasyonuna sahip Fe-Mn ikili alas¬m¬için borür ve geçis tabakala-
r¬n¬n ortak olarak maksimummikrosertli¼ge ulasmalar¬için gerekli s¬cakl¬k 1357:5K
dir.
%0:42Mn konsatrasyonuna sahip Fe-Mn ikili alas¬m¬n¬n borür ve matris tabaka-
lar¬nda ortak olarak maksimum mikrosertli¼ge ulasaca¼g¬s¬cakl¬k ise 1291:2922K
olarak bulunmustur.
%0:42 Mn konsatrasyonuna sahip Fe-Mn ikili alas¬m¬n da ise geçis ve matris
tabakalar¬n¬n ortak olarak maksimummikrosertli¼ge ulasaca¼g¬s¬cakl¬k 1358:1688K
olarak belirlenmistir (Sekil 4:3 ve Sekil 4:4).
32
Sekil 4:3: Geçis ve matris tabakalar¬için k¬s¬tl¬mikrosertlik gra�¼gi (%0:42 Mn için)
1000 1100 1200 1300 14000
200
400
600
800
1000
1200
1400
x1
f(x1+x2)
Sekil 4:4: Geçis ve matris tabakalar¬için k¬s¬tl¬mikrosertlik gra�¼gi (%0:42 Mn için)
Problemin çözümü için kullan¬lan algoritma asa¼g¬daki gibidir:
Ad¬m 0 : f(x) in global optimumunu içinde bulunduran aral¬¼g¬belirlenir.
33
Ad¬m 1 : Lokal minimumlast¬r¬c¬ x�1 noktas¬n¬bulmak için f(x) herhangi bir
x0 2 dan baslayarak minimize edilir. Daha sonra tolx pozitif reel küçük bir
say¬olmak üzere (mesela tolx = 10�8) x0 = x�1 + tolx al¬n¬r. � parametresi için
�0 baslang¬ç de¼geri kullan¬l¬r (mesela �0 = 1).
Ad¬m 2 : x�1, �0 kullan¬larak ve � = arctanx al¬narak S (x; x�1; �0) �lled fonksi-
yonu insa edilir:
S (x; x�1; �0) = �kx� x�1k+ �0maxf0; f (x)� f (x�1)g+ � (minf0; f (x)� f (x�1)g)
x0 baslang¬ç noktas¬kabul edilir ve S (x; x�1; �0) �lled fonksiyonu minimize edilir.
Ad¬m 3 : S (x; x�1; �0) �lled fonksiyonunu minimumlast¬ran xs noktas¬bulunursa
4: ad¬ma gidilir; iterasyon dizisi nin üst s¬n¬r¬na varana kadar hala xs noktas¬
bulamad¬ysa x0 = x�1� tolx al¬n¬r ve 2: ad¬ma dönülür; iterasyon dizisi nin alt
s¬n¬r¬na varana kadar yine bir xs noktas¬bulamad¬ysa mevcut x�1 noktas¬global
minimumlast¬r¬c¬olarak kabul edilir.
Ad¬m 4 : E¼ger varsa x�2 6= x�1 olacak sekilde yeni bir lokal minimumlast¬r¬c¬
bulmak için xs baslang¬ç noktas¬yla f(x) fonksiyonu minimize edilir. E¼ger
f(x�2) < f(x�1) ise x�1 yerine x
�2 geçer fakat � de¼gistirilmez ve sonra ad¬m 2
ye dönülür, e¼ger f(x�2) � f(x�1) ise x�1 de¼gistirilmez fakat �0 yenilenir (mesela
�0 = 2�) ve sonra ad¬m 2 ye dönülür.
34
5: SONUÇ VE ÖNER·ILER
Haz¬rlanan bu yüksek lisans tez çal¬smas¬nda yeni bir �lled fonksiyon önerilmis-
tir. Ayn¬zamanda �lled fonksiyon metodunun Lipschitz sürekli amaç fonksiyo-
nuna sahip problemlerin yan¬ s¬ra düzgün sürekli amaç fonksiyonlar¬na sahip
problemler üzerinde de çal¬smas¬sa¼glanarak metodun uygulama alan¬genisletil-
mistir.
Önerilen yeni �lled fonksiyonun bir gerçek hayat problemi kullan¬larak uygula-
mas¬yap¬lm¬st¬r. Sonuç olarak, farkl¬Mn konsantrasyonlar¬na sahip Fe-Mn ikili
alas¬mlar¬n¬n borlama islemi sonucunda olusan borür tabakas¬, geçis tabakas¬,
matris tabakalar¬ndan düzenlenen ikili tabakalar¬n alabilecekleri maksimummik-
rosertlik dereceleri �lled fonksiyon metodu kullan¬larak hesaplanm¬st¬r. Toplam
mikrosertlik derecesinin verilere uygun oldu¼gu ve bu yöntemin çesitli �ziksel
problemlere uygulanabilece¼gi görülmüstür. Deneysel sonuçlar �lled fonksiyon
metodunun az de¼giskenli problemlerde oldukça iyi sonuçlar verdi¼gini göstermek-
tedir. Daha çok de¼giskene sahip Fe-Mn ikili alas¬mlar¬problemlerinde de ayn¬
sekilde iyi sonuçlar vermesi beklenmektedir.
Bu çal¬sman¬n devam¬olarak düsünülen bir kaç öneri vard¬r:
1. Önerilen yeni �lled fonksiyondan yola ç¬karak düzgün sürekli fakat Lipschitz
sürekli olmayan amaç fonksiyonuna sahip problemler için baska �lled fonksiyon-
lar üretilebilir mi?
2. Filled fonksiyon metodu fen bilimleri ve mühendislikteki di¼ger gerçek hayat
problemlerine uyguland¬¼g¬nda nas¬l sonuçlar elde edilir?
35
KAYNAKLAR
Anstreicher, K.M., Wolsey, L.A., 2009: Two Well-known Properties of Subgradi-
ent Optimization. Mathematical Programming, 120, 213� 220:
Bazaraa, M S., Sherali, H.D., 1981: On the Choice of Step Sizes in Subgradient
Optimization. European Journal of Operational Research, 7, 380� 388:
Bazaraa, M.S., Sherali, H.D., Shetty, C.M., 1993. Nonlinear Programming: The-
ory and Algorithms. Wiley, 853p. New Jersey.
Bektas, M., Calik, A., Ucar, N., Keddam, M., 2010: Pack-boriding of Fe-Mn Bi-
nary Alloys: Characterization and Kinetics of the Boride Layers. Mate-
rials Characterization, 612, 33� 239.
Beltran, C., Heredia F.J., 2005: An E¤ective Line Search for the Subgradient
Method. Journal of Optimization Theory and Applications, 125 (1), 1�
18:
Burachik, R.S., Kaya, C.Y., Mammadov, M., 2010: An Inexact Modi�ed Subgr-
adient Algorithm for Nonconvex Optimization. Comput Optim Appl.,
45, 1� 24:
Cal¬k, A., Sahin, O., Ekinci, A.E., Ucar, N., 2007: Mechanical Properties of Bo-
ronized Fe-0:94% Mn Binary Alloy. Zeitschrift für Naturforschung, 62,
545� 548.
Chen, X., Qi, L., Yang, Y.F., 2002: Lagrangian Globalization Methods for Non-
linear Complementarity Problem. Journal Optimization Theory Applied,
112; 77� 95:
Clarke, F.H., 1983: Optimization and Nonsmooth Analysis. Wiley, 853p. New
York.
Ge, R.P., 1983: A Filled Function Method for Finding a Global Minimizer of a
Function of Several Variables. Paper Presented at The Dundee Biennial
36
Conference on Numerical Analysis, Dundee, Scotland.
Ge, R.P., 1987: The Theory of Filled Function Method for Finding a Global
Minimizer of a Nonlinearly Constrained Minimization Problem. Journal
of Computational Mathematics, 5 (1) ; 1� 9.
Ge, R.P., Qin, Y.F., 1987: A Class of Filled Functions for Finding Global Mini-
mizers Of a Function Of Several Variables. Journal of Optimization
Theory and Applications, 54(2); 241� 252:
Ge, R.P., Qin, Y.F., 1987. The Globally Convexized Filled Functions for Glo-
bal Optimization. Applied Mathematics and Computation, 35; 131�
158:
Ge, R., 1990. A Filled Function Method for Finding a Global Minimizer of a
Function of Several Variables, Mathematical Programing, 46; 191�204.
Ge, R., 1990. The Filled Function Transformations for Constrained Global Op-
timization. Applied Mathematics and Computation, 39; 1� 20:
Gokbayrak, K., Selvi, O., 2009: A Subgradient Descent Algorithm for Optimiza-
tion of Initially Controllable Flow Shop Systems. Discrete Event Dyna-
mic Systems, 19, 267� 282:
Han, Q., Han, J., 2001. Revised Filled Function Methods for Unconstrained
Global Optimization. Applied Mathematics and Computation, 119; 217
�228:
He, S., Chen, W., Wang, H., 2011. A New Filled Function Algorithm for Cons-
trained Global Optimization Problems. Applied Mathematics and Com-
putation, 217; 5853� 5859:
Hiriart-Urruty, J.B., Lamarechal, C., 1993: Convex Analysis and Minimization
Algorithms. Springer-Verlag, 418p. Berlin Heidelberg.
Kanzow, C., 2000. Global Otimization Techniques for Mixed Complementarity
37
Problems. Journal Global Optimization, 16; 1� 21.
Levy, A.V., Montalvo, A., 1985: The Tunneling Algorithm for the Global Mini-
mization of Functions, SIAM Journal on Scienti�c and Statistical Com-
puting. 6; 15� 29.
Lin, W.M., Gow, H.J., Tsay, M.T., 2007. A Partition Approach Algorithm for
Nonconvex Economic Dispatch. Electrical Power and Energy Systems,
29 (5), 432� 438.
Lin, Y., Yang, Y., Mammadov, M., 2009: A New Filled Function Method For
Non - linear Equations. Applied Mathematics and Computation, 210;
411� 421:
Liu, X., 2001: Finding Global Minimization with a Computable Filled Function.
Journal Global Optimization, 19; 151� 161:
Liu, X., 2002: A Computable Filled Function Used for Global Minimization.
Applied Mathematics and Computation, 126; 21� 278.
Liu, X., 2002: Several Filled Function with Mitigators. Applied Mathematics
and Computation, 1233; 375� 378.
Liu, X., 2004: The Barrier Attribute of Filled Function. Applied Mathematics
and Computation, 149; 641� 649.
Liu, X., Xu, W., 2004: A New Filled Function Applied to Global Optimization.
Computers and Operations Research, 31; 61� 80.
Liu, X., 2007: A New Approach for Solving the Multimodal Economic Load Dis-
patch Problem. Proceeding of Institute of Electrical and Electronics
Engineers Power Engineering Society General Meeting.
Nazareth, J.L., 1996: Lagrangian Globalization: Solving Nonlinear Equations
via Constrained Optimization. The Mathematics of Numerical Analysis,
32, 533� 542.
38
Nazareth, J.L., Qi, L., 1996: Globalization of Newton�s Methods for Solving
Nonlinear Equations. Numerical Linear Algebra Applied, 3; 239� 249:
Nedic, A., 2002: Subgradient Methods for Convex Minimization, Massachusetts
Institute of Technology, Ph.D. Thesis, 174p., Boston.
Nedic, A., Ozdaglar, A., 2009: Subgradient Methods for Saddle-Point Problems.
Journal of Optimization Theory and Applications, 142, 205� 228:
Nesterov, Y., 2005: Smooth Minimization of Nonsmooth Functions. Mathemati-
cal Programming, 103(1), 127� 152:
Nesterov, Y., 2008: Rounding of Convex Sets and E¢ cient Gradient Methods
for Linear Programming Problems. Optimization Methods and Softwa-
re, 23(1), 109� 128:
Nesterov, Y., 2009: Primal - dual Subgradient Methods for Convex Problems.
Mathematical Programming, 120, 221� 259:
Nesterov, Y., 2011: Barrier Subgradient Method. Mathematical Programming,
127, 31� 56:
Qi, L., Yang, Y.F., 2002: NCP Functions Applied to Lagrangian Globalization
for the Nonlinear Complementarity Problem. Journal Global Optimiza-
tion, 24; 261� 283:
Sahiner, A., Gokkaya, H., Yigit, T., 2012: A New Filled Function for Nonsmo-
oth Global Optimization. AIP Conference Proceedings, 1479� 972.
Sahiner, A., Mammadov, M., 2007: Global Optimization Based on Filled Func-
tion Method. Lecture Notes.
Shang, Y., Pu, D., Jiang, A., 2007: Finding Global Minimizer with One Para-
meter Filled Function on Unconstrained Global Optimization. Applied
Mathematics and Computation, 191; 176� 182:
39
Shi, Q., He, C., Jiang, L., 2009: Normalized Incremental Subgradient Algorithm
and Its Application. IEEE Transactions On Signal Processing, 57(10),
3759� 3774:
Tong, X.J., Qi, L., Yang, Y.F., 2006: The Lagrangian Globalization Method for
Nonsmooth Constrained Equations. Computational Optimization and
Applications, 33, 89� 109:
Travain, M.C., Traore, S., 2002. On Subgradients of Spectral Functions. Jour-
nal of Convex Analysis, 2, 401� 414.
Wang, X., Zhou, G., 2006: A New Filled Function Method for Global Optimiza-
tion. Applied Mathematics and Computation, 174; 419� 429:
Wang, W., Shang, Y., Zhang, L., 2007: A Filled Function Method with One Pa-
rameter for Box Constrained Global Optimization. Applied Mathema-
tics and Computation, 194; 54� 66:
Wang, C., Yang, Y., Jing, L, 2009: A New Filled Function Method for Uncon-
strained Global Optimization. Journal of Computational and Applied
Mathematics, 225; 68� 79:
Wang, W.X., Shang, Y.L., Zhang, Y., 2010. Finding Global Minima with a Fil-
led Function Approach for Non-Smooth Global Optimization. Discrete
Dynamics in Nature and Society, doi:10:1155=2010=843609.
Wang, C., Luo, R., Wu, K., Han, B., 2011: A New Filled Function Method for
an Unconstrained Nonlinear Equation. Journal of Computational and
Applied Mathematics, 235; 1689� 1699:
Wang, W.X., Shang, Y.L., Zhang, L.S., Zhang, Y., 2011: Global Minimization
of Non-smooth unconstrained problems with �lled function. Optimiza-
tion Letters, doi:10:1007=s11590� 011� 0427� 7.
Wang, W.X., Shang, Y.L., Zhang, Y., 2012: Finding Global Minima with a No-
40
vel Filled Function for Non-smooth Unconstrained Optimisation. Inter-
national Journal of Systems Science, 43 (4), 707� 714.
Wu, Z.Y., Lee, H.WJ., Zhang, L.S., Yang, X.M., 2005. A Novel Filled Function
Method and Quasi-Filled Function Method for Global Optimization.
Computational Optimization and Applications, 34; 249� 272.
Wu, Z.Y., Mammadov, M., Bai, F.S., Yang, Y.J., 2007: A Filled Function Met-
hod for Nonlinear Equations. Applied Mathematics and Computation,
189; 1196� 1204:
Wu, Z.Y., Bai, F.S., Lee, H.W, Yang, Y.J., 2007: A Filled Function Method for
Constrained Global Optimization. Journal of Global Optimization, 39;
495� 507:
Xu, Z., Huang, H., Pardolos, P., Xu, C., 2001: Filled Function for Unconstrai-
ned Global Optimization. Journal of Global Optimization, 20; 49� 65:
Yang, Y., Shang, Y., 2006: A New Filled Function Method for Global Optimiza-
tion. Applied Mathematics and Computation, 173; 501� 512:
Zhang, L.S., Ng, C.K., Li, D., Tian, W.W., 2004: A New Filled Function Met-
hod for Global Optimization. Journal of Global Optimization, 28; 17�
43:
Zhang, Y., Xu, Y., 2009: A One Parameter Filled Function Method Applied to
Non-smooth Constrained Global Optimization. Computers and Mathe-
matics with Applications, 58; 1230� 1238:
Zhang, Y., Xu, Y., Zhang, L., 2009: A Filled Function Method Applied to Non-
smooth Constrained Global Optimization. Journal of Global Optimiza-
tion, 232; 415� 426.
Zhang, Y., Zhang, L., Xu, Y., 2009: New Filled Functions for Nonsmooth Global
Optimization. Applied Mathematical Modelling, 33, 3114� 3129.
41
Zhang, Y., Zhang, L., Xu, Y., 2010: A One-Parameter Filled Function for Non-
smooth Global Optimization and Its Application. Journal of Systems
Science and Complexity, 23, 1195� 1209.
42
ÖZGEÇM·IS
Ad¬Soyad¬ : Havva GÖKKAYA
Do¼gum Yeri ve Y¬l¬ : KONYA, 1988
Medeni Hali : Bekar
Yabanc¬Dili : ·Ingilizce
E-posta : [email protected]
E¼gitim Durumu
Lise : Karatay Süleyman Demirel Milli Piyango Anadolu
Lisesi, 2002-2006
Lisans : Süleyman Demirel Üniversitesi, 2006-2010
Yüksek Lisans : Süleyman Demirel Üniversitesi, 2010-2012
Yay¬nlar¬
Sahiner, A., Gokkaya, H., Yigit, T., 2012: A New Filled Function for Nonsmo-
oth Global Optimization. AIP Conference Proceedings, 1479; 969�972.
Gökkaya H., Sahiner, A. 2011: An Application of Constrained Nonlinear Prog-
ramming to the Physical Problem: Fe-Mn Binary Alloys. Acta Universi-
tatis Apulensis, Special Issue, 211� 219.
Sahiner, A., Gokkaya, H., 2012: An Application of Filled Function Method to
the Hardness Property of Fe-Mn Binary Alloys. The 10th International
FLINS Conference on Uncertainty Modeling in Knowledge Engineering
and Decision Making Conference, 26� 29 August, ·Istanbul, Turkey,
1161� 1166.
Sahiner, A., Gokkaya, H., 2012. Fixed point theorems for some generalized sym-
metric n-cone banach spaces. , International Conference on Applied An-
alysis and Algebra, 20� 24 June, Y¬ld¬z Technical University, ·Istanbul.
Sahiner, A., Gökkaya, H., Buzkan, G., 2011. Symmetric n-Cone Normed Spa-
43
Spaces and Fixed Point Theorems. 2: Workshop in Fixed Point Theo-
ry and Applications. 14�15 June, Amirkabir University of Technology,
Tehran,Iran.
Sahiner, A., Buzkan, G., Gökkaya, H., 2011: On n-Cone Normed Spaces. Con-
ference on Summability and Applications. ·Istanbul Commerce Univer-
sity, 12� 13 May, ·Istanbul, Turkey.
44