🏛️ Hikûmet dê laboratuwarek nû ava bike da ku Keyaniya Yekbûyî di rêça bilez de li ser pêşkeftinên AI-ê bimîne ↗
Keyaniya Yekbûyî Laboratuwareke Lêkolînê ya Sûni ya Bingehîn a ku ji aliyê hikûmetê ve tê piştgirîkirin ava dike û wê wekî xebateke "ezmanê şîn" pêşkêş dike - cureyekî ku xeternak, hêdî ye, û carinan bi awayekî ku her kesê din wekî ku xewle bûye xuya dike. ( GOV.UK )
Bal ne tenê li ser "modelên mezintir, GPU-yên bêtir" e - ew kêmasiyên domdar ên wekî halûsînasyon, bîra kurt, û aqilmendiya nepêşbînîkirî çareser dike, û her weha gihîştina lêkolîneran bi rêya Çavkaniya Lêkolîna AI-ê digihîje hesabên cidî. Pir maqûl xuya dike… û her weha, bi bêdengî, mîna hewldanek e ku meriv pêşî li derxistina tavilê ya hişên çêtirîn ên Keyaniya Yekbûyî li cîhek din bigire. ( GOV.UK )
🧨 CEOyê Nvidia îşaret bi dawîhatina veberhênanên li OpenAI û Anthropic dike ↗
Jensen Huang nîşan dide ku Nvidia dibe ku bi heman awayî veberhênanê li laboratuarên AI yên pêşeng berdewam neke - bi dînamîkên IPO (û mezinahiya kontrolên ku têne nîqaş kirin) ku pêkanîna wî şêwazê fînansekirinê dijwartir dike. ( Reuters )
Ew guhertinek tonî ye ku hêjayî temaşekirinê ye: Nvidia di vê geşbûna tevahî de şahê kêran e, lê ew îşaret dike ku "xwedîkirina perçeyên madenvanan" êdî ne her gav lîstik e. An jî dibe ku ew tenê bi dengekî bilind xwe diparêze, ku CEO dikin, mîna nefesgirtinê. ( Reuters )
🧩 Taybet: Grûpeke mezin a teknolojiyê di şerê Pentagonê de piştgiriyê dide Anthropic ji ber ku veberhêner hewl didin ku pevçûnê li ser parastinên AI kêm bikin ↗
Alozîya Pentagonê ya Anthropic vediguhere tencereyeke zextê ya tevahî - tê gotin ku veberhêner dixwazin germahî kêm bibe, di heman demê de şirket hewl dide ku helwesta xwe ya li ser zimanê parastinê (bi taybetî li dora çavdêriyê) biparêze. ( Reuters )
Binnivîsa çîrokê hema bêje ji nivîsê bilindtir e: di serdema AI de, gotinên peymanê ne "lêkolîna qanûnî" ne, ew bi bingehîn polîtîkaya hilberê ye - û ew biryar dide ka modelek dibe amûrek, çekek, an berpirsiyariyek berfireh. ( Reuters )
🪖 Sam Altman qebûl dike ku OpenAI nikare karanîna AI-ê ji hêla Pentagonê ve kontrol bike ↗
Li gorî agahiyan, Altman ji karmendên OpenAI re gotiye ku piştî bicihkirina wê, nikare kontrol bike ka Pentagon çawa AI-ya xwe bikar tîne - ku bi dengekî bilind dikeve erdê ji ber ku ew tam tirsa ku mirov li dora wê digeriyan bi nav dike. ( The Guardian )
Paşxaneya berfirehtir, nakokiyên di navbera "em ê bi rêzikan alîkariyê bikin" û "em ê alîkariyê bikin, xal bi xal" de zêde dibin, û her weha berteka navxweyî û giştî dema ku pejirandina leşkerî bi lez û bez an jî firsendî xuya dike. Etîk li vir ne tenê xêzek paqij e, lê bêtir rijandina boyaxa şil e - her kes tê de destwerdanê dike, dûv re nîqaş dike ka pêlava kê ye. ( The Guardian )
🧬 Hevkarîya AI ya nû di genomîkê de bi Enstîtuya Sanger û Google DeepMind re ↗
Enstîtuya Wellcome Sanger bursiyek akademîk a ji hêla DeepMind ve tê fînansekirin dest pê dike ku balê dikişîne ser sepandina AI-ê li ser genomîkê - ku wekî yekem cîhek ji bo hevalbendek DeepMind di vî warî de tê binavkirin. ( sanger.ac.uk )
Tiştê balkêş (û bi rastî, hinekî nûjenker) tekez li ser pirsgirêkên genomîkê yên kêm lêkolînkirî ye ku AI jixwe li her derê nîne - û her weha nota eşkere ku DeepMind lêkolîna heval rêve nabe. Ew mîna dayîna roketekê ji kesekî re ye û gotina "herin tiştekî kifş bikin," li şûna "herin nexşerêya me baştir bikin." ( sanger.ac.uk )
Pirsên Pir tên Pirsîn
Laboratuwara Lêkolînê ya Sûni ya Bingehîn a ku ji hêla hikûmeta Keyaniya Yekbûyî ve tê piştgirîkirin çi ye, û ew ê çi bike?
Laboratuwara Lêkolîna Sûni ya Bingehîn a ku ji hêla hikûmetê ve tê piştgirîkirin, wekî hewldanek lêkolînê ya "ezmanê şîn" tê binavkirin - karekî bi rîska bilind ku dibe ku dem bigire da ku encam bide. Li şûna ku tenê li ser mezinkirina modelên her ku diçe mezintir bisekine, ew armanc dike ku pirsgirêkên domdar ên wekî halûsînasyon, bîra kurt û aqilmendiya nepêşbînîkirî çareser bike. Mebest ew e ku pêşketin ji bingehan tên, ne tenê ji zêdekirina GPU-yên zêdetir.
Çawa Laboratuwara Lêkolînê ya Sûni ya Bingehîn a Keyaniya Yekbûyî dikare alîkariya lêkolîneran bike ku bigihîjin hesabên cidî?
Li gel Laboratuwara Lêkolînê ya Sûni ya Bingehîn a Keyaniya Yekbûyî, plan gihîştina hesabkirina girîng bi rêya Çavkaniya Lêkolînê ya Sûni ronî dike. Di pratîkê de, ev tê vê wateyê ku lêkolîner dikarin ceribandinên ku wekî din ji hêla lêçûn an binesaziyê ve sînordar dibin, bikin. Ew di heman demê de rê dide tîman ku ramanan di pîvanek de biceribînin ku pirsgirêkên wekî pêbawerî û xurtbûnê bibin berbiçav, ne tenê teorîk.
Çima Keyaniya Yekbûyî girîngiyê dide halûsînasyon, bîra kurt û aqilmendiya nepêşbînîkirî?
Ew qelsiyên ji wan celeb in ku di dema bicihkirinê de derdikevin holê û dikarin baweriyê bi lez kêm bikin. Baldariya diyarkirî nîşan dide ku armanc ne tenê şiyan e, lê pêbawerî ye - kêmkirina encamên çêkirî, baştirkirina awayê ku model çarçoveyek dirêjtir birêve dibin, û kêmkirina nelirêtiyê di aqil de. Ew celeb xebat pir caran hêdîtir û xeternaktir e, ji ber vê yekê ew wekî lêkolîna bingehîn tê çarçove kirin.
Guhertina tonê Nvidia li ser veberhênana li OpenAI an Anthropic bi rastî çi nîşan dide?
Raport vê yekê wekî nîşanek nîşan dide ku Nvidia dibe ku bi heman awayî veberhênanê li laboratuarên pêşeng neke, nemaze ji ber ku dînamîkên IPO û mezinahiyên çekan ên mezin vê stratejiyê tevlihev dikin. Her çend wekî pêşengek "hilbijartin û şovîlan" di alavên AI de be jî, ew pêşniyar dike ku pişkên xwedîtiyê ne her gav lîstika çêtirîn in. Di heman demê de ew dikare peyamek hişyar be, ku di şîroveyên rêveberan de gelemperî ye.
Çima nakokiya Anthropic a Pentagonê ya li ser "zimanê parastinê" ewqas girîng e?
Xala sereke ya gotarê ew e ku gotinên peymanê dikarin bibin polîtîkaya hilberê - nemaze dema ku ew bandorê li çavdêriyê û karanînên din ên hesas dike. Li gorî agahiyan, veberhêner dixwazin pevçûnê kêm bikin, di heman demê de şirket hewl dide ku xeta xwe ya ewlehiyê bigire. Di gelek bicihkirinên AI de, ew bend şekil didin ka pergal ji bo çi dikare were bikar anîn, û şirket bi bandor çi rîskan qebûl dike.
Dema Sam Altman dibêje OpenAI nikare kontrol bike ka Pentagon çawa AI-ê bikar tîne, ev tê çi wateyê?
Ew sînordarkirinek pratîkî vedibêje: gava amûrek tê bicîhkirin, pêşdebirê orîjînal dibe ku şiyana wî/wê ya rêvebirina karanîna paşîn sînordar be. Ev yek pir girîng e ji ber ku ew balê dikişîne ser tirsa bingehîn a ku mirov li ser pejirandina leşkerî radixin - dibe ku qaîde di qonaxa peymankirinê de hebin, lê bicîhanîna wan dikare dijwar be. Ew di heman demê de rageşiyek berfirehtir di navbera "alîkarî, bi sînorkirinan" û "alîkarî, bêyî ku hewce bike" de nîşan dide