Gelo we qet dîtiye ku hûn di saet 2ê sibê de digerrin û dipirsin ka modelên AI çi ne û çima her kes behsa wan dike mîna ku ew sêrbazên efsûnî bin? Eynî tişt. Ev nivîs rêbernameya min a ne-pir fermî, carinan alîgir e ku we ji "eh, ti ramanek tune" bigihîne "di şîvên şevê de bi awayekî xeternak bawermend". Em ê li ser van mijaran bisekinin: ew çi ne, çi wan bi rastî bikêr (ne tenê dibiriqe), ew çawa têne perwerdekirin, meriv çawa bêyî ku di bêbiryariyê de bikeve hilbijartinê hildibijêre, û çend dafikên ku hûn tenê piştî ku êş dikişînin fêr dibin.
Gotarên ku hûn dikarin piştî vê yekê bixwînin:
🔗 Arbitraja AI çi ye: Rastiya li pişt peyva mozaîkê
Arbitrajê AI, reklamên wê, û derfetên rastîn rave dike.
🔗 AI-ya sembolîk çi ye: Her tiştê ku hûn hewce ne ku bizanin
AI-ya sembolîk, rêbaz û sepanên wê yên nûjen vedihewîne.
🔗 Pêdiviyên hilanîna daneyan ji bo AI: Tiştên ku hûn hewce ne ku bizanin
Pêdiviyên hilanîna daneyên AI û nirxandinên pratîkî parve dike.
Ji ber vê yekê… modelên AI bi rastî çi ne? 🧠
Di awayê xwe yê herî sade de: modelek AI tenê fonksiyonek e ku tê fêr kirin . Hûn têketinê didinê, ew derketinê derdixe. Xal ev e, ew bi lêkolîna gelek mînakan û her carê xwe sererast dike da ku "kêmtir xelet" be, fêm dike ka çawa . Vê yekê têra xwe dubare bike û ew dest bi dîtina qalibên ku we qet pê nizanibû hene dike.
Heke we navên wekî regresyona xêzikî, darên biryarê, torên neuralî, veguherîner, modelên belavbûnê, an tewra k-cîranên herî nêzîk bihîstibin - erê, ew hemî li ser heman mijarê rif in: daneyên diçin, model nexşeyekê fêr dibe, encam derdikeve. Cilûbergên cûda, heman pêşandan.
Çi pêlîstokan ji amûrên rastîn cuda dike ✅
Gelek model di demoyekê de xweşik xuya dikin lê di hilberînê de têk diçin. Yên ku dimînin bi gelemperî navnîşek kurt a taybetmendiyên mezinan parve dikin:
-
Giştîkirin - daneyên ku qet nehatine dîtin bêyî ku ji hev bikevin birêve dibe.
-
Pêbawerî - dema ku têketin ecêb dibin mîna avêtina pereyek tevnagere.
-
Ewlehî û Asayîş - lîstikkirin an jî bikaranîna xelet dijwartir e.
-
Şirovekirin - ne her tim zelal e, lê bi kêmanî dikare were çareserkirin.
-
Nepenîtî û Dadperwerî - rêzê li sînorên daneyan digire û bi alîgirtinê ve girêdayî nîne.
-
Karîgerî - têra xwe erzan e ku bi rastî di pîvanek mezin de bixebite.
Ew bi bingehîn rêkxerên navnîşa cilşûştinê û çarçoveyên rîskê ne ku ew jî jê hez dikin - derbasdarî, ewlehî, hesabdayîn, şefafî, dadperwerî, hemî serkeftinên herî mezin. Lê bi rastî, ev ne tiştên xweş in ku meriv hebe; heke mirov xwe bispêrin pergala we, ew maseyên xetereyê ne.
Kontrolkirina bilez a aqilmendiyê: model li dijî algorîtmayan li dijî daneyan 🤷
Li vir dabeşkirina sê beşî ye:
-
Model - "tiştê" fêrbûyî ku têketinan vediguherîne derketeyan.
-
Algorîtma - reçeteya ku modelê perwerde dike an dixebitîne (bifikirin daketina gradyant, lêgerîna tîrêjê).
-
Daneyên - mînakên xav ên ku modelê fêrî çawaniya tevgerînê dikin.
Metaforeke hinekî nebaş: daneyên te malzemeyên te ne, algorîtma reçete ye, û model jî kek e. Carinan xweş e, carinan jî ji ber ku te pir zû nihêrî, di nîvî de diçe.
Malbatên modelên AI-ê ku hûn ê bi rastî jî bibînin 🧩
Kategorîyên bêdawî hene, lê li vir rêza pratîkî heye:
-
Modelên xêzikî û lojîstîkî - hêsan, bilez, şîrovekirî. Xalên bingehîn ên bêhempa ji bo daneyên tabloyî.
-
Dar û kom - darên biryarê dabeşkirinên "eger-wê hingê" ne; daristanekê bikin yek an wan xurt bikin û ew bi rastî jî bi hêz in.
-
Torên neural ên konvolusyonî (CNN) - stûna bingehîn a naskirina wêne/vîdyoyê. Fîlter → qirax → şekil → tişt.
-
Modelên rêzê: RNN û transformer - ji bo nivîs, axaftin, proteîn, kod. Baldariya xwe-bi-tevger a transformeran guherînerê lîstikê bû [3].
-
Modelên belavbûnê - afirîner, dengê rasthatî gav bi gav vediguherînin wêneyên hevgirtî [4].
-
Torên neural ên grafîkî (GNN) - ji bo tor û têkiliyan hatine çêkirin: molekul, grafên civakî, zengilên sextekariyê.
-
Fêrbûna bi xurtkirinê (RL) - ajanên ceribandin û xeletiyê xelatê baştir dikin. Li ser robotîkê, lîstikan, biryarên li pey hev bifikirin.
-
Pêbawerên kevin: kNN, Naive Bayes - xetên bingehîn ên bilez, nemaze ji bo nivîsê, dema ku hûn duh .
Têbînî: li ser daneyên tabloyî, zêde tevlihev nekin. Regresyona lojîstîkî an darên zêdebûyî pir caran li torên kûr dixin. Transformer pir baş in, lê ne li her derê.
Perwerde di bin kapotê de çawa xuya dike 🔧
Piraniya modelên nûjen bi kêmkirina fonksiyona windabûnê bi rêya hin awayên daketina gradyanê . Belavbûna paşve rastkirinan paşve dixe da ku her parametre bizanibe ka çawa tevbigere. Hîleyên wekî rawestandina zû, rêkûpêkkirin, an jî çêtirkirinên jîr lê zêde bikin da ku ew nekeve kaosê.
Kontrolên rastiyê yên ku hêjayî xêzkirinê ne li ser maseya we:
-
Kalîteya daneyan > hilbijartina modelê. Bi ciddî.
-
Her tim bi tiştekî hêsan bingeha xwe bigire. Ger modelek xêzikî nebaş be, dibe ku boriya daneyên we jî nebaş be.
-
Temaşekirina piştrastkirinê bike. Ger windabûna perwerdeyê dakeve lê windabûna piştrastkirinê zêde bibe - silav, zêde fitkirin.
Nirxandina modelan: rastbûn derew e 📏
Rastbûn xweş xuya dike, lê hejmareke yekane ya pir xirab e. Li gorî karê we:
-
Rastbûn - gava tu dibêjî erênî, çend caran tu rast dibêjî?
-
Bînin bîra xwe - ji hemû erênîyên rastîn, we çend dîtin?
-
F1 - rastbûn û bîranînê hevseng dike.
-
Xêzên PR - bi taybetî li ser daneyên nehevseng, ji ROC pir rasttir in [5].
Bonus: pîvandinê kontrol bike (gelo îhtimal tiştekî îfade dikin?) û driftê (gelo daneyên te yên têketinê di bin lingên te de diguherin?). Heta modelek "mezin" jî kevn dibe.
Hikûmet, rîsk, qaîdeyên rê 🧭
Dema ku modela we bigihîje mirovan, pabendbûn girîng e. Du xalên girîng:
-
RMF-ya AI ya NIST-ê - dilxwaz lê pratîkî, bi gavên çerxa jiyanê (rêveberî, nexşekirin, pîvandin, rêvebirin) û selikên pêbaweriyê [1].
-
Qanûna Zîrekiya Sûni ya YE - rêziknameya li ser bingeha rîskê, ku ji Tîrmeha 2024-an vir ve qanûnek e, erkên hişk ji bo pergalên bi rîska bilind û heta hin modelên bi armanca giştî destnîşan dike [2].
Xala sereke ya pragmatîk: tiştê ku we çêkiriye, we çawa ceribandiye, û we çi xetereyan kontrol kiriye belge bikin. Bangên awarte yên nîvê şevê yên paşê ji we re xilas dike.
Modelek bêyî ku hişê xwe winda bikin hilbijêrin 🧭➡️
Pêvajoyek dubarekirî:
-
Biryarê pênase bike - çewtiyeke baş û çewtiyeke xirab çi ye?
-
Daneyên denetimê - mezinahî, hevsengî, paqijî.
-
Sînorkirinan destnîşan bike - şirovekirin, derengketin, budçe.
-
Xetên bingehîn bimeşînin - bi xêzikî/lojîstîkî an jî bi dareke biçûk dest pê bikin.
-
Bi aqilmendî dubare bike - taybetmendiyan lê zêde bike, eyar bike, dûv re heke qezenc bi ser nekeve malbatan biguhezîne.
Bêzar e, lê li vir bêzarî baş e.
Wêneya berawirdkirinê 📋
| Cureyê modelê | Binêrevan | Bihayekî zêde | Çima ew dixebite |
|---|---|---|---|
| Xêzikî û Lojîstîkî | analîst, zanyar | nizm-navîn | hêzek şîrovekirî, bilez, tabloyî |
| Darên Biryarê | tîmên tevlihev | nizm | dabeşkirinên ku ji hêla mirovan ve têne xwendin, birêvebirina ne-xêzik |
| Daristana Rasthatî | tîmên hilberê | medya | ensembles guherbarîyê kêm dikin, generalîstên bihêz |
| Darên bi Gradientê Zêdekirî | zanyarên daneyan | medya | SOTA li ser tabloyê, bi taybetmendiyên tevlihev xurt e |
| CNN | xelkê vîzyonê | navîn-bilind | konvolusyon → hiyerarşiyên fezayî |
| Transformer | NLP + pirmodal | bilind | baldariya li ser xwe bi awayekî xweşik dipîve [3] |
| Modelên Belavbûnê | tîmên afirîner | bilind | bêdengî sêrbaziya afirîner çêdike [4] |
| GNN | nerdên grafîkê | navîn-bilind | şandina peyamê têkiliyan kod dike |
| kNN / Naive Bayes | hackerên bi lez û bez | pir nizm | xetên bingehîn ên hêsan, bicihkirina tavilê |
| Fêrbûna Xurtkirinê | lêkolîn-giran | navîn-bilind | çalakiyên li pey hev çêtir dike, lê ramkirina wan dijwartir e |
"Taybetmendî" di pratîkê de 🧪
-
Wêne → CNN bi komkirina şablonên herêmî di nav yên mezintir de serdikevin.
-
Ziman → Veguherker, bi baldariya xwe, çarçoveyek dirêj birêve dibin [3].
-
Grafîk → GNN dema ku girêdan girîng in dibiriqin.
-
Medyaya hilberîner → Modelên belavbûnê, bêdengî gav bi gav [4].
Daneyên: MVP-ya bêdeng 🧰
Model nikarin daneyên xirab tomar bikin. Bingehîn:
-
Setên daneyan rast parve bikin (bêyî rijandin, rêz li demê bigirin).
-
Nehevsengiyê birêve bibe (nimûnekirin ji nû ve, giranî, eşik).
-
Taybetmendiyên endezyar bi baldarî têne bikar anîn - modelên kûr jî sûd werdigirin.
-
Ji bo aqilmendiyê xaç-pejirandin.
Pîvandina serkeftinê bêyî xapandina xwe 🎯
Metrîkan bi lêçûnên rastîn re hevber bikin. Mînak: triyaja bilêtên piştgiriyê.
-
Vegerandin rêjeya girtina bilêtên lezgîn zêde dike.
-
Rastbûn nahêle ku ajan di nav deng de bifetisin.
-
F1 herduyan jî hevseng dike.
-
Drift û kalibrkirinê bişopînin da ku pergal bi bêdengî nexize.
Rîsk, dadmendî, belge - zû bikin 📝
Belgekirinê ne wek burokrasiyê, lê wek sîgorteyê bifikirin. Kontrolkirina alîgirtinê, testên xurtbûnê, çavkaniyên daneyan - wan binivîsin. Çarçoveyên mîna RMF ya AI [1] û qanûnên mîna Qanûna AI ya YE [2] bi her awayî dibin mijara nîqaşê.
Nexşerêya destpêkê ya bilez 🚀
-
Biryar û pîvanên rast bicîh bînin.
-
Daneyên paqij berhev bikin.
-
Xeta bingehîn bi xêzik/darê.
-
Ji bo modalîteyê biçe cem malbata rast.
-
Bi metrên guncaw nirxandin.
-
Berî şandinê rîskan belge bikin.
Pirsên Pir tên Pirsîn li ser birûskê ⚡
-
Li bendê bin, dîsa - modela AI çi ye?
Fonksiyonek e ku li ser daneyan hatiye perwerdekirin da ku têketin û derketinên têkildar ve girêbide. Sihir giştîkirin e, ne jiberkirin. -
Ma modelên mezintir her tim qezenc dikin?
Ne li ser tabloyan - darên hîn jî serdest in. Li ser nivîs/wêneyan, erê, mezinahî pir caran dibe alîkar [3][4]. -
Şirovekirin vs rastbûn?
Carinan danûstandinek e. Stratejiyên hîbrîd bikar bînin. -
Endezyariya bilez an jî sererastkirineke bilez?
Girêdayî ye - budçe û çarçoveya peywirê diyar dikin. Her du jî cihê xwe hene.
TL;DR 🌯
Modelên AI = fonksiyonên ku ji daneyan fêr dibin. Tiştê ku wan bikêr dike ne tenê rastbûn e, lê bawerî, rêveberiya rîskê û bicîhkirina bi baldarî ye. Bi sade dest pê bikin, tiştên girîng bipîvin, beşên nexweş belge bikin, dûv re (û tenê wê hingê) bibin xemilandî.
Eger hûn tenê hevokekê bihêlin: Modelên AI fonksiyonên fêrbûyî ne, bi optimîzasyonê têne perwerdekirin, bi metrîkên taybetî yên çarçoveyê têne nirxandin, û bi parêzvanên parastinê têne bicîhkirin. Ev hemû mesele ye.
Referans
-
NIST - Çarçoveya Rêvebiriya Rîska Zekaya Sûni (AI RMF 1.0)
NIST AI RMF 1.0 (PDF) -
Qanûna Zekaya Sûni ya YE - Rojnameya Fermî (2024/1689, 12 Tîrmeh 2024)
EUR-Lex: Qanûna Zekaya Sûni (PDF-a Fermî) -
Transformers / Xwe-baldarî - Vaswani û yên din, Baldarî Hemû Tiştê Ku Hûn Pêdivî ne ye (2017).
arXiv:1706.03762 (PDF) -
Modelên Belavbûnê - Ho, Jain, Abbeel, Modelên Îhtimalî yên Belavbûnê yên Bêdeng (2020).
arXiv:2006.11239 (PDF) -
PR li dijî ROC li ser Nehevsengiyê - Saito & Rehmsmeier, PLOS ONE (2015).
DOI: 10.1371/journal.pone.0118432