23 Nisan 2018 Pazartesi

Kifşkirina Amerîkayê ya ji nû ve û lihevanîna peyv û biwêjan

"Ji-nû-ve-kifşkirina Amerîkayê", Wek tê zanîn gotineka wiha heye. Kesên ji Trikî aşîne ya vê gotinê dibe ku bibêjin ew ji Tirkî hatiye nav Kurdî, lê ew di gelek ziaman de li kar e. Wek mînak gotina "Rediscovering America" yekeyek beramberê wê ye. Di îngîlîzî de gotineke zêdetirr tê bi kaar anîn heye ku ew jî "re-inventing the wheel", ew jî "ji nû ve vedîtina tekerran" e. Ew ji bo kar û barên ku ne hewce ye ji nû ve, ji sêrî de, dîsa, carekî din bên dubarekirin tê gotin. Angomeriv careke rêyek kifş kir şûnde , hewce nake meriv eynî cefayî carekî din bikîşîne. Meriv vê gotinê gelek caran dibêje, heta li pir kesan dike şîret jî. Lê carcaran meriv encax, ji dû ku gihîştiye paşiya rêya xwe re pê dihese ku meriv bixwe cefayekî eynî, cefayekî berê hatiye kişandin, carekî din û bi zehmeteka zêdetir kişandiye. Ma ne ku tê gotin Amerîka berî Kolomb jî hatiye kifş kirin. Dibe ku teker jî li cihen cuda yên dinyayê careke zêdetir hatiye vedîtin.

Metoda C#'ê bo Damerau-Levanshtein
Çend roj berê ez pê hesiyam ku di xebeata li ser Wîkîferhengê de min jî cih bi cih Amerîka ji nû ve kifş kiriye, ez carekî diin bi dû vedîtina tekeran ketime. Li vir min qala xebateka xwe ya  li ser li hevanîna peyv û biwêjên Wîkîferhengê kiribû. Min xwestibû ku ez  peyv û biwêjên ku mebesta wan yek e, lê di navbera de ferqeka biçûk heye li hev bînim û wan wek binêr bi hev ve girê bidim. Min jê  re gelek algorîtma hazir kirin ku wan li hev bînim, li vir hewce nake ez carekî din bi dûr û dirêjî qala wê meseleyê bikim, ji ber ku min di lînka daye de qala wê dibe. Lê demek berê ez pê hesiyam ku min teker ji nû ve kifş kiriye, ez siwarê kelek û gemiyan dîsa ber  bi Amerîkayê ve bi rê ketime.

Biwêjên lihevaniyî.
Bona lihevanîna peyv û hevokên wekhev, berê jî lînguîstan xebat kirine. Wan jî hewl daye ku peyvên dişibin hev rêz bikin û dûrbûn-nêzikbûna wan kifş bikin. Ango Amerîka ji berê de kifş bûye, teker ji berê de hatiye vedîtin. Matematîkzanê Soveyetî Levanshtein di 1965'an de teoriyek li ser vê danasandiye. Wî xwestiye ku dûrbûna di navbera du peyv an hevokan(rêzetîp) de, bi hejmara hewceya sererastkirinan kifş bike. Ango eger meriv bi sererastkirineka tenê re du  rêzetîptan bikare wekhev bike dûrbûna wan 1 e. Egerna, meriv du rêzetîpan bikare bi du sererastkirinan wekhev bike, hînga dûbûna wan 2 ye. Wî bi teoriya xwe xwestiye ku algorîtme û modela vê dûrbûne der xe. Teoriya wî paşê ji hêla Frederick Damerau ve jî hatiye pêş xistin. Îro ew teoriya wan di gelek tiştan de tên bi kar anîn. Wek mînak gava te lo Google'ê tiştek nivîsand, Google ji te dipirse, ka gelo mebesta te bi rastî ev bû. An jî bo sererastkirinan tê bi kar anîn.

Werhasil, min metoda Levanshtein bo lihevanîna peyv û biwêjan carekî din bi kar anî û peyv û biwêjên ku mebesta wan yek e, lê di navberê de cidatiyên hindik hene li hev anîn û ji dû çavlêgerandinê re ew guhertinan li ser Wîkîferhengê kirin. Ez ê wê metodê bo hin mebestên din jî bi kar bînim. Bo çêkirina bnr'an û hwd.


Hiç yorum yok:

Yorum Gönder