🧬 DeepMind AlphaGenome dide destpêkirin da ku ajokarên genetîkî yên nexweşiyan tespît bike ↗
DeepMind AlphaGenome eşkere kir, sîstemeke AI ku armanc dike pêşbînî bike ka mutasyonên DNA çawa rêkxistina genan diguherînin - bi bingehîn kengî gen vedibin, li ku derê û bi çi dengî. Ew dikare perçeyên mezin ên DNA-yê bi carekê ve bişopîne, di nav de herêmên ne-kodkirinê yên berfireh ku pir caran wekî madeya tarî ya biyolojîk têne hîskirin.
Gotin pir rasterast e: destnîşankirina zûtir a mutasyonên ku bi rastî ji bo tiştên wekî rîska penceşêrê û nexweşiyên mîrasî yên tevlihev girîng in. Ger ew wekî ku tê reklamkirin bixebite, lêkolîner kêmtir dem ji bo texmînkirinê û bêtir dem ji bo ceribandina tiştên rast derbas dikin - ku ev eşkere xuya dike, lê bi tevahî lîstik e.
🧑💼 Liz Kendall qebûl dike ku zekaya sûnî dê bibe sedema windakirina karan ↗
Wezîra teknolojiyê ya Keyaniya Yekbûyî bi eşkereyî got ku pejirandina AI dê bibe sedema windakirina karan - ne atmosfera asayî ya "dê baş be, soz dide". Wê bal kişand ser fikarên li ser rolên ketina mezûnan di warên wekî hiqûq û darayî de, û negot ku hejmareke baş heye ku her kes dikare pêşkêş bike.
Di heman demê de, hikûmet bi tundî berê xwe dide adaptasyonê: hewldanek mezin ji bo perwerdekirina bi mîlyonan karkeran di jêhatîyên bingehîn ên AI de, bi armanca ku Keyaniya Yekbûyî bike welatek ku AI zûtir bikar tîne. Ev tengezariya klasîk e - erê kar diçin, erê kar xuya dibin, na ew ê di navîn de ne xweş hîs bike.
🗞️ Keyaniya Yekbûyî zextê li Google dike ku rê bide malperan ku ji Nirxandinên AI derkevin ↗
Rêkxerên pêşbaziyê yên Keyaniya Yekbûyî guhertin pêşniyar kirin ku dê rê bidin weşanxaneyan ku bêyî ku di rêzikên lêgerînê yên normal de werin cezakirin, dev ji karanîna naveroka xwe ji bo Nirxandinên AI yên Google-ê - an jî ji bo perwerdekirina modelên AI yên serbixwe - berdin. Ew beşa "bêyî ku werin cezakirin" li vir gelek kar dike.
Fikir ew e ku hêz ji nû ve were hevsengkirin ji ber ku kurtasiyên AI awayê klîkkirin (an klîknekirinê) ji nû ve diguherînin. Bersiva Google bi bingehîn ev bû: tevgera lêgerînê diguhere, em bêtir kontrolê difikirin, lê hilberê nekin guhertoyek perçebûyî ya xwe… ku, maqûl e, lê di heman demê de hêsan e.
🛡️ Dema ku ajanek AI li ser lînkek bitikîne, daneyên we ewle dihêlin ↗
OpenAI xetereyek ewlehiyê ya ajanê ya taybetî bi hûrgilî rave kir: derxistina daneyan a li ser bingeha URL-ê - ku êrîşkarek AI-ê dixapîne da ku URL-yek bar bike ku agahdariya taybet bi bêdengî di rêza lêpirsînê de bicîh dike. Her çend model qet nehêniyê "nebêje", daxwaz bi xwe dikare wê eşkere bike. Nebaş, û bi awayekî bêçek teknolojiya nizm.
Kêmkirina wan qaîdeyek hêsan e bi qiraxên tûj: ajan tenê divê URL-yên ku jixwe giştî ne û bi navgîniya navnîşek webê ya serbixwe têne zanîn bixweber bistînin. Ger girêdanek wekî giştî neyê verast kirin, divê pergal hêdî bibe û bi hişyariyan bikarhêner dîsa bixe bin kontrolê - aloziya bi zanebûn, lê cureyê baş.
🇪🇺 Beşa bê ji bo AI li YE ↗
OpenAI nexşeyek li ser YE weşand ku pirsgirêka "zêdebûna şiyanan" çarçove dike - model dikarin ji ya ku mirov û karsaz niha wan ji bo wê bikar tînin bêtir bikin, û ev valahî rîska destkeftiyên neyeksan li seranserê welatan dike. Ew mîna xwedîkirina otomobîlek pêşbirkê ye û tenê wê diajon dikana goşeyê ... ji bilî ku dikana goşeyê tevahiya aboriya we ye.
Li kêleka retorîkê, perçeyên berbiçav hene: bernameyek ku armanc dike bi hezaran SME-yên Ewropî di warê jêhatîyên AI-ê de perwerde bike, bexşek ku bi lêkolîna ewlehî û başbûna ciwanan ve girêdayî ye, û helwestek berfireh a "xebata bi hikûmetan re". Ew beşek ji nota siyasetê ye, beşek jî kampanyaya pejirandinê ye - û erê, ew bi hev re tevlihev dibin.
🔐 Rîska AI Li Hev Dikeve Bi Rêvebiriya Sîberê re: Profîla AI ya Sîber a Pêşnûmeyê ya NIST ↗
Profîleke nû ya ji NISTê (bi rêya analîzê ji nivîseke fîrmayeke hiqûqî) balê dikişîne ser ka rêxistin çawa divê AI-ê di rêveberiya sîberê de bihewînin - hem ewlekirina pergalên AI-ê bi xwe û hem jî bikaranîna AI-ê ji bo baştirkirina parastina sîber. Li ser kaxezê dilxwazî ye, lê "dilxwazî" bi demê re dibe çaverêkirî.
Grûpên pêşnûmeyê li ser mijarên wekî ewlekirina pêkhateyên AI û bicihkirina parastina bi hêza AI - di nav de nirxandinên zincîra dabînkirinê û otomasyona mîna ajan di herikên kar ên bersivê de dixebitin. Atmosfer ev e: AI hem wekî rûberek êrîşê ya nû û hem jî wekî komek amûrên nû bihesibînin, û xeyal nekin ku ew ji hev cuda ne.
Pirsên Pir tên Pirsîn
AlphaGenome ya DeepMind çi ye, û hewl dide çi pirsgirêkê çareser bike?
AlphaGenome sîstemeke AI ye ku DeepMind dibêje dikare pêşbînî bike ka mutasyonên DNAyê çawa bandorê li ser rêkxistina genan dikin - kengî gen vedibin, li ku derê dibe, û çiqas bi hêz. Ew hatiye çêkirin ku beşên pir mezin ên DNAyê di carekê de bişopîne, tevî herêmên ne-kodkirinê yên ku şîrovekirina wan bi dijwarî tê zanîn. Armanc ew e ku alîkariya lêkolîneran bike ku bibînin ka kîjan mutasyon bi îhtîmaleke mezin nexweşiyê diafirînin, da ku ceribandina laboratîfê li ser rêberên herî sozdar bisekine.
Çawa dikare AlphaGenome alîkariya lêkolîneran bike ku ajokarên genetîkî yên nexweşiyê zûtir bibînin?
Di gelek karên genetîkê de, astengî ji biçûkkirina navnîşên mezin ên guhertoyan bo çendên ku bi awayekî îhtîmalî çalakiya genan diguherînin tê. Soza AlphaGenome ew e ku bi pêşbînîkirina ka mutasyonên taybetî çawa dikarin rêziknameyê li seranserê rêzikên dirêj ên DNA-yê biguherînin, wê texmînê kêm bike. Ger ew pêşbînî rast bin, tîm dikarin ceribandinên li dora guhertoyên ku bi îhtîmaleke mezin bi rîska penceşêrê an şert û mercên mîratî yên tevlihev ve girêdayî ne, bidin pêşanî, û kêmtir dem li ser rêyên bê encam derbas bikin.
Gelo pejirandina AI bi rastî dê li Brîtanyayê bibe sedema lêçûnên kar, û kîjan rol di xetereyê de ne?
Wezîra teknolojiyê ya Keyaniya Yekbûyî, Liz Kendall, got ku pejirandina AI dê bibe sedema windakirina karan û bal kişand ser fikarên li ser rolên ketina mezûnan. Wê bi taybetî bal kişand ser warên wekî hiqûq û darayî, ku karên destpêka kariyerê dibe ku otomatîktir bin. Di heman demê de, hikûmet tekezî li ser adaptasyonê bi rêya perwerdehiya berfireh di jêhatîyên bingehîn ên AI de dike, û qebûl dike ku veguheztin dibe ku neyeksan xuya bike her çend rolên nû derkevin holê jî.
Ma weşanxaneyên Keyaniya Yekbûyî dikarin bêyî windakirina rêza lêgerînê, ji Nirxandinên AI yên Google derkevin?
Rêkxerên pêşbaziyê yên Keyaniya Yekbûyî guhertin pêşniyar kirine ku dê rê bidin weşanxaneyan ku dev ji karanîna naveroka xwe ji bo Nirxandinên AI yên Google-ê - an jî ji bo perwerdekirina modelên AI-ê yên serbixwe - berdin bêyî ku di rêzikên lêgerînê yên standard de werin cezakirin. Armanc ew e ku hêz ji nû ve hevseng bibe ji ber ku kurteyên AI tevgera klîkkirinê diguhezînin. Google îşaret kir ku ew li ser kontrolên bêtir difikire, di heman demê de li dijî ezmûnek lêgerînê ya parçebûyî hişyarî da.
Çawa ajanekî AI dikare daneyên taybet tenê bi tikandina lînkekê eşkere bike?
OpenAI xetereyek derxistina daneyan a li ser bingeha URL-ê vegot ku tê de êrîşkarek ji ajanek AI-ê dixwaze ku girêdanek bîne ku bi bêdengî agahdariya hesas di rêza lêpirsînê de bicîh dike. Her çend model di derana xwe de qet nehêniyê dubare neke jî, daxwaz bi xwe dikare wê bişîne. Kêmkirinek hevpar lêzêdekirina "kêşeya qestî" ye, wekî hişyariyan û hewcedariya pejirandina bikarhêner dema ku girêdanek bi serbixwe wekî giştî neyê verast kirin.
Profîla Pêşnûmeya Sîber-AI ya NIST çi ye, û ew çawa rêveberiya sîber diguherîne?
Profîla pêşnûmeyî ya NIST (ku bi rêya analîzek yasayî hatiye nîqaşkirin) AI-ê hem wekî tiştek ku were ewlekirin û hem jî wekî tiştek ku di parastina sîber de were bikar anîn destnîşan dike. Ew xebatan li ser mijaran kom dike wekî ewlekirina pêkhateyên AI-ê, çareserkirina xetereyên zincîra dabînkirinê, û bicihkirina parastinên bi AI-ê ve girêdayî - di nav de herikînên bersivê yên otomatîktir, mîna ajan. Her çend bi navê xwebexş bin jî, çarçoveyên wekî vê pir caran dibin hêviyên de facto, ku rêxistinan neçar dike ku AI-ê bi fermî di rêveberî û kontrolê de nexşînin.