🇬🇧 Bi wêrekî li ser AI-ê şansê xwe deynin da ku Keyaniya Yekbûyî di pêşengiya pêşketinên zanist û lêkolînê de, ji lênihêrîna tenduristiyê bigire heya karûbarên giştî yên çêtir, bimîne ↗
Fînansekarê sereke yê lêkolînên giştî yê Keyaniya Yekbûyî (UKRI) stratejiya xwe ya yekem a taybet bi AI weşand, ku di bingeh de ji bo bêtir AI di lêkolînê de, bêtir jêhatîyên AI, bêtir binesaziya AI - bi tevahî arguman dike.
Ew pereyên cidî yên ji bo AI-ê berhev dike, digel veberhênanên taybetî yên wekî nûvekirina superkomputera DAWN ya Cambridge-ê û piştgirîkirina xebata "AI ji bo Zanistê" (vedîtina dermanan, ne ecêb e, nav tê kontrol kirin). Ew wekî "bingehan bikin, lê di heman demê de encaman bişînin" dixwîne... ku ev jî atmosferek e, an jî têlek teng e, an jî herdu jî.
🛡️ OpenAI û Microsoft tevlî hevpeymaniya navneteweyî ya Keyaniya Yekbûyî dibin da ku pêşkeftina AI biparêzin ↗
OpenAI û Microsoft soz dan ku fînansmanek nû bidin Projeya Hevrêzkirinê ya Enstîtuya Ewlekariya AI ya Keyaniya Yekbûyî - potek ji bo lêkolîna hevrêzkirinê ya serbixwe mezintir bû, û ew wê wekî avakirina baweriyê, ne tenê wekî rexnegiriya nerdan çarçove dikin.
Têbînî li vir avahî ye: hevpeymaniyek navneteweyî, gelek fînansor, û komek ji alîkariyên darayî li seranserê komek welatan têne dayîn. Ew "lihevhatina wekî ekosîstemê ye", ne "lihevhatina wekî sosa veşartî ya yek laboratûvarê" ye... her çend laboratûvar hîn jî piraniya sosê di destê xwe de bigirin.
🧠 Pêşxistina lêkolînên serbixwe li ser hevahengiya AI ↗
OpenAI 7.5 milyon dolar ji bo Projeya Hevrêzkirina AISI ya Keyaniya Yekbûyî veqetand - pereyê ku bi taybetî ji bo tîmên serbixwe yên ku li derveyî laboratuarên sînor xebatên ewlehî/hevrêzkirinê dikin hatiye armanc kirin.
Gotin pir rasterast e: laboratuarên pêşeng dikarin hevrêzkirina model-giran bikin, lê ev qad di heman demê de hewceyê ramanên taybetî, cihêreng û ne-têkildar ji derveyiyan e (gotinên wan xweştir in, lê hûn fêm dikin). Di binê van hemûyan de nêrînek cîhanî ya "bicihkirina dubare" ya zelal jî heye - şandin, fêrbûn, hişkkirin… dubarekirin… an jî wisa xuya dike.
💳 Wezareta Xezîneyê Du Çavkaniyên Nû Derdixe Ji Bo Rêberiya Bikaranîna AI di Sektora Darayî de ↗
Wezareta Xezîneyê ya Dewletên Yekbûyî yên Amerîkayê du amûrên pratîkî ji bo fînansê avêtin: ferhengek hevpar a AI (da ku her kes dev ji nîqaşkirina li ser wateya peyvan berde) û çarçoveyek rêveberiya rîska AI ya karûbarên darayî ku nêzîkatiya NIST-ê li gorî rastiyên bankayê diguhezîne.
Çarçove rêveberiyeke li ser bingeha rîskê ye ku têra xwe hûrgulî hene ku ji hêla tîmên pabendbûnê, rêkxer û firoşkaran ve were bikar anîn bêyî ku her kes pênaseyên xwe bi hev re îcad bike. Ew cure belgeyeke prozaîk e ku bi bêdengî tiştê ku tê pejirandin şekil dide… ku bi awayekî wekî kabîneya dosyayê bi hêz e.
🪖 CTOyê Pentagonê dibêje ku ji bo Anthropic 'ne demokratîk' e ku karanîna leşkerî ya Claude AI sînordar bike ↗
Serkirdeyekî teknolojiyê yê Pentagonê bi eşkereyî li dijî sînordarkirina karanîna leşkerî ya Claude ji aliyê Anthropic ve derket, û got ku ew "ne demokratîk" e ku pargîdaniyek tenê qaîdeyên zêde ji bilî qanûn û rêziknameyê destnîşan bike.
Ev yek li ser tevlîheviyeke berfirehtir e ku tê de gelek şîrketên modelên sînor peymanên parastinê hene da ku genAI-ê ji bo çarçoveyên leşkerî xweş bikin - û xala nakokî tam ew e ku hûn hêvî dikin: polîtîkayên karanîna şîrketan li hember hewesa hikûmetê ji bo karanîna operasyonel. Tevahiya tişt wekî desthevdanînek ku vediguhere pevçûnek destan, di nîvê wêneyê de hîs dike.
Pirsên Pir tên Pirsîn
Stratejiya AI ya UKRI çi ye û çima girîng e?
Stratejiya yekem a taybet a AI ya UKRI doza ajotina AI-ê di nav xeta lêkolînê de - jêhatîbûn, binesazî û bicîhkirina pratîkî - dike. Çarçove "bingehan bikin, lê di heman demê de encaman jî bişînin" e, ku zextê nîşan dide ku veberhênana lêkolînê veguherîne sûdê giştî. Ew her weha balê dikişîne ser nêzîkatiyek berfireh: ne tenê modelên fînansekirinê, lê di heman demê de hesabkirin, mirov û rêyên pejirandinê yên ku pêşveçûnê didomînin.
Nûjenkirina superkomputera DAWN ya Cambridge bi rastî çi gengaz dike?
Nûjenkirina superkomputera DAWN a Cambridge wekî gaveke binesaziyê tê hesibandin ku piştgiriyê dide xebatên AI yên ambicioztir li seranserê lêkolînên Keyaniya Yekbûyî. Di warê pratîkî de, ev bi gelemperî tê wateya kapasîteya zêdetir ji bo perwerde, nirxandin û ceribandinên mezin ku sazîyên piçûktir têdikoşin ku bi bandor bimeşînin. Di gelek boriyan de, hesabkirina hevpar a bihêztir astengiyên zanîngehê sivik dike û çerxê ji prototîpan ber bi encamên weşanbar û ceribandinbar zûtir dike.
Di çarçoveya stratejiya AI ya Keyaniya Yekbûyî de "AI ji bo Zanistê" tê çi wateyê?
"AI ji bo Zanistê" wekî karanîna rêbazên AI ji bo lezandina vedîtinê tê pêşkêş kirin, ku navên vedîtina dermanan bi eşkere têne kontrol kirin. Di pratîkê de, ev pir caran karanîna AI ji bo çêkirina hîpotezan, lêgerîna cîhên sêwirana mezin, an jî pêşîniya ceribandinan vedihewîne. Tekez li ser xwestekek ji bo encamên ku bi zelalî ji akademiyê wêdetir têne xwendin nîşan dide - rêbazên nû, çerxên kurttir, û serîlêdanên ku bi lênihêrîna tenduristiyê û karûbarên giştî ve girêdayî ne.
Projeya Hevrêzkirina Enstîtuya Ewlekariya Sûni ya Keyaniya Yekbûyî çi ye û kî fînanse dike?
Projeya Hevrêzkirinê ya Enstîtuya Ewlekariya AI ya Keyaniya Yekbûyî wekî avahiyek hevpeymaniya navneteweyî tê binavkirin ku piştgiriya lêkolîna hevrêzkirinê ya serbixwe dike, ku gelek fînansor beşdar dibin. OpenAI û Microsoft wekî zêdekirina fînansmana nû têne destnîşan kirin, ku wekî avakirina baweriyê û piştgiriya ekosîstemê tê çarçove kirin. Model "hevrêzkirin wekî ekosîstem" e, ku alîkarî ji tîmên li seranserê welatan re diherikin li şûna ku kar di nav laboratuarên sînor de were kom kirin.
Çima OpenAI 7.5 milyon dolar ji bo lêkolîna serbixwe ya hevahengiya AI-ê xerc kir?
Mantîqa diyarkirî ya OpenAI ew e ku laboratuarên pêşeng dikarin karên ewlehiyê bikin ku bi gihîştina modela kûr ve girêdayî ye, di heman demê de tîmên serbixwe dikarin ramanên cihêreng û ne têkildar pêşkêş bikin ku laboratuar dibe ku ji dest bidin. Girîngî li ser berfirehkirina qadê ji "sirra nehênî ya yek laboratuarê" wêdetir e. Nivîs her wiha îşaret bi nêrînek cîhanê ya "bicîhkirina dubare" dike - bicîh bikin, ji bersivên bicîhkirinê fêr bibin, pergalan hişk bikin, dûv re dubare bikin.
Çavkaniyên AI yên Xezîneya Dewletên Yekbûyî yên Amerîkayê çawa bandorê li ser rêveberiya AI ya sektora darayî dikin?
Wezareta Xezîneyê ya Dewletên Yekbûyî yên Amerîkayê ferhengek hevpar a AI û çarçoveyek rêveberiya rîska AI ya karûbarên darayî weşand ku ji ramana şêwaza NIST-ê hatine adaptekirin. Mebest ew e ku belavbûna pênaseyan kêm bibe û ji tîmên pabendbûnê, rêkxer û firoşkaran re pirtûkek lîstikê ya hevpar were dayîn. Di gelek rêxistinan de, belgeyên wekî van şekil didin tiştê ku di pratîkê de tê pejirandin, ji ber ku ew bendewariyên ji bo kontrol, belgekirin û biryardana li ser bingeha rîskê standard dikin.