🧱 Lutnick dibêje, Nvidia divê bi sînordarkirinên li dora firotina çîpên AI yên xwe ji bo Çînê bijî ↗
Wezîrê Bazirganiyê yê Amerîkayê Howard Lutnick got ku Nvidia dikare hin çîpên AI yên pêşketî bifroşe Çînê - lê tenê di bin şertên lîsansê yên hişk de. Ev ne "nefiroşe" ye, lê "bifroşe û îspat bike ku tu heq dikî" ye
Hûrguliyek balkêş: tê gotin ku şert kontrolên mîna kontrolên bi şêwaza "Know-Your-Customer" dihewînin da ku xetera çîpên ku di leşkerî de werin bikar anîn kêm bikin. Nvidia hewl dide ku paşve gav bavêje, lê serdema pabendbûnê bi her du aliyan ve dest pê dike.
💼 Çavkaniyek dibêje ku Blackstone pişka xwe di destpêka AI Anthropic de zêde dike û digihîne nêzîkî 1 milyar dolarî ↗
Li gorî raporan, Blackstone veberhênana xwe ya li Anthropicê gihandiye dora 1 milyar dolarî, û wekî beşek ji gera fînansekirinê ya berfirehtir, pereyên zêdetir lê zêde kiriye. Fînansên mezin "çêkerên modelan" dikirin mîna ku ew binesazî bin, ne sepan.
Axaftina nirxandinê ya ku tê ragihandin ew beş e ku dibe sedema lerzîna bêhemdî ya çavan. Her wiha, modela herî nû ya sereke ya Anthropic li paşperdeyê wekî - em dişînin, çekan bişînin.
🧠 Cadence ajanek AI-ê destnîşan dike da ku sêwirana çîpên komputerê bileztir bike ↗
Cadence ChipStack AI Super Agent derxist, bi bingehîn alîkarek "ajan" ji bo sêwirandin û verastkirina çîpan pêşkêş kir - endezyarên hêdî û bêwestan li ser vê xebatê pir wext derbas dikin. Şîrket îdîa dike ku ew dikare bi avakirina "modelek derûnî" ya sêwiranekê û dûv re jî bi ceribandin û çareserkirina xeletiyan hin karan bi awayekî dramatîk bileztir bike.
Ev zivirînek pir dişibihe serdema AI-ê: çîpên herî pêşketî zûtir têne sêwirandin… ji hêla AI-ê ve… da ku em karibin AI-ya hîn bêtir ava bikin. Marek dûvikê xwe dixwe, lê bi qeydek ecêb hilberîner.
🎬 Runway, ku starta vîdyoya AI-ê ye, bi nirxandina 5.3 milyar dolarî 315 milyon dolar berhev kiriye û li modelên cîhanê yên jêhatîtir dinêre ↗
Runway rêzefîlmek mezin a bi navê Series E derxist û fînanse wekî sotemeniyek ji bo "modelên cîhanê" pêşkêş kir - ne tenê çêkirina klîpan, lê di heman demê de avakirina pergalên ku hawîrdoran têra xwe baş temsîl dikin da ku werin plansazkirin û simulasyon kirin. Ev gotinek dirêj e, lê rêwerz bi zelalî tê xwendin: vîdyoyek hevgirtîtir, cîhanên domdartir, rûyên kêmtir ên surreal ên dihelin (bi hêvî).
Ew her wiha ji medyayê û reklaman wêdetir ber bi tiştên wekî lîstik û robotîkê ve fireh dibin, ku ev beş bi bêdengî pir mezin hîs dike… modelên vîdyoyê wekî gaveke girîng ber bi makîneyên ku dîmenan fam dikin, ne tenê wan render dikin.
🧩 Amûrên AI yên Jony Ives ji bo sala 2027-an têne paşxistin û dê jê re io neyê gotin ↗
Dosyayek dadgehê nîşan dide ku projeya alavên OpenAI ya bi Jony Ive ve girêdayî tê paşxistin - û navê "io" ji ber nakokiyên li ser nîşana bazirganî tê avêtin. Pêşeroj, ku li ser marqeyê disekine, bi awayekî ecêb li ser mijarê xuya dike.
Goşeya derengketinê girîng e ji ber ku fanfara alavên elektronîkî demek dirêj e dizivire, û ev cure bendewariyan ji nû ve saz dike. Ew projeyê nakuje - ew tenê wê dixe nav wê herêma mijdar a "di dawiyê de" ku hilber lê dikevin xewê.
🕵️ Hevpeyvînên 'anonîm' ên Anthropic ji hêla profesorekî xwedî LLM ve hatin şikandin ↗
Profesorekî ji Bakurê Rojhilat rêyek nîşan da ku meriv dikare bi karanîna LLM-yek amade, komek hevpeyvînên ku ji projeya Interviewer a Anthropic hatine weşandin, ji anonîmkirinê derxîne. Ne hemî - lê têr bûn ku xalê bi dengekî bilind bînin ziman.
Ev bîranînek e ku "nivîsa anonîmkirî" pir caran bêtir dişibihe "nivîsa sivik veşartî", nemaze dema ku model dikarin nasnameyê ji perçeyên kontekstê texmîn bikin. Nepenî di yek kêliyekê de nayê şikandin - ew têk diçe.
🧾 Qanûnek nû dikare şîrketên teknolojiyê neçar bike ku rapor bikin ka naveroka bi mafên parastî ji bo perwerdehiya AI-ê bikar tînin an na ↗
Pêşniyareke du alî (Qanûna CLEAR) dê şîrketan teşwîq bike ku berhemên bi mafên nivîskariyê yên ku di perwerdekirina modelên AI de têne bikar anîn eşkere bikin. Ev ne fermanek lîsansê ya rasterast e - bêtir dişibihe vêxistina ronahiyê di odeyekê de ku bi zanebûn tarî bûye.
Eger ew biçe her derê, ew dikare hewaya şerên mafên nivîsandinê ji nû ve şekil bide: kêmtir "baweriya me bikin" û bêtir "erka xwe ya malê nîşan bidin". Gelo ev di pîvanek mezin de dikare were sepandin an na, pirsa mezin e, û bi awayekî, tevahiya meseleyê.
Pirsên Pir tên Pirsîn
"Parastinên" li ser firotina çîpên AI yên Nvidia bo Çînê bi rastî tê çi wateyê?
Ew nîşan didin ku firotin hîn jî dibe ku berdewam bike, lê tenê di bin şert û mercên lîsansê yên hişk ên Wezareta Bazirganiyê ya Dewletên Yekbûyî de. Li şûna qedexeyek giştî, ev helwest nêzîkî "bifroşe, lê îspat bike ku tu heq dikî" ye. Di pratîkê de, dibe ku hinardekar hewce bikin ku nîşan bidin ka kî dikire, çîp dê çawa werin bikar anîn, û çi gav hene da ku xetera veguhastinê kêm bikin.
Ji bo hinardekirina çîpên AI yên pêşketî, pabendbûna "Müşteriyê Xwe Nas Bike" çawa xuya dike?
Bi gelemperî, ev yek kontrolkirina kirrûbir, navbeynkar û bikarhênerên dawîn bi awayekî pir êrîşkartir ji firotina standard a pargîdaniyan vedihewîne. Pirtûkek lîstikê ya hevpar berhevkirina agahdariya nasname û xwedîtiyê ya bihêztir, piştrastkirina karanîna dawîn a diyarkirî, û çavdêriya nîşanên firotanê an şêwazên barkirinê yên neasayî ye. Armanc ew e ku şansê ku çîp piştgiriyê bidin karanînên leşkerî an yên din ên sînorkirî kêm bibe, di heman demê de rê li ber hinardekirinên bazirganî yên destûrdar bigire.
Çima şîrketên mîna Blackstone nêzîkî 1 milyar dolar li Anthropic û çêkerên modelên din xerc dikin?
Veberhênerên mezin bi şîrketên modela pêşeng re zêdetir wekî binesaziyê tevdigerin: avakirina wan biha ye, ji hêla stratejîk ve girîng e, û dibe ku ji bo gelek hilberên jêrîn navendî be. Veberhênanên piştî-serkeftinê yên hatine ragihandin dikarin xwestekek ji bo domandina berfirehbûnê nîşan bidin dema ku dewre mezin dibin. Pir caran, behîs ew e ku şiyana modelê, belavkirin û pejirandina pargîdaniyê bi demê re zêde dibin - her çend lêçûnên nêzîk bilind bimînin jî.
Dema ku pargîdaniyek modelên nû yên sereke dişîne jî, divê ez nirxandinên mezin ên destpêkên AI-ê çawa şîrove bikim?
Axaftina nirxandinê pir caran bendewariyên li ser hêza bazara pêşerojê bi qasî dahata heyî dişopîne. Şandina modelên bihêztir dikare ramana ku pargîdanî pêk tîne xurt bike, ne tenê berhevkirina drav. Dîsa jî, nîşana herî zelal bi gelemperî kişandin e: xerîdarên dubare, performansa pêbawer, û bazarek parastî. Nêzîkatiyek hevpar ew e ku karanîna hilberê û pabendbûnên pargîdaniyê li kêleka hejmarên sernavê werin temaşekirin.
ChipStack AI Super Agent ya Cadence çi ye, û kîjan beşên sêwirana çîpê dikare bileztir bike?
Ew wekî alîkarek "ajansî" ji bo sêwirandin û verastkirina çîpan tê pêşkêş kirin, bi tekezî li ser karên hêdî û dijwar ên wekî ceribandin, debugkirin û dubarekirina sêwiranên tevlihev. Konsept ew e ku amûr têgihîştinek xebitandinê ya sêwiranê pêş dixe, dûv re dibe alîkar ku kontrol û dîtina pirsgirêkan zûtir bike. Di gelek herikên xebatê de, tengasiyên verastkirinê ew cih in ku dem û hewldana endezyariyê kom dibin.
"Modelên cîhanê" di vîdyoya AI de çi ne, û çima pargîdaniyên nû li ser wan behîs dikin?
"Modelên cîhanê" bi gelemperî behsa pergalên ku hawîrdoran bi awayekî domdar temsîl dikin da ku dîmenan bi demê re plan bikin, simulasyon bikin û hevgirtî bihêlin. Di çêkirina vîdyoyê de, ev dikare bibe sedema kêm kêmasiyên domdar û karakter, tişt û tevgerên sabîttir. Heman şiyan dikare ji medyayê wêdetir jî dirêj bibe - ku pir caran di lîstik, simulasyon û robotîkê de tê nîqaş kirin - ji ber ku ew li ser têgihîştina dîmenan e, ne tenê çêkirina çarçoveyan.
Çima projeyên alavên AI-ê tên paşxistin û navên wan tên guhertin, mîna çîroka cîhaza Jony Ive/OpenAI?
Demên alavên elektronîkî ji ber gelek sedeman diqedin: prototîp, sînorkirinên dabînkirinê, ceribandina bikêrhatîbûnê, û zehmetiya hevberkirina şiyana nermalavê bi faktorek forma fîzîkî. Guhertinên navkirinê dikarin li dû nakokiyên nîşana bazirganî an guhertinên di stratejiya marqeyê de werin. Derengketin bixweber nîşan nade ku projeyek mirî ye; ew pir caran nîşan dide ku tîm berî ku ji raya giştî re were vekirin, çarçove, bingeha qanûnî, û amadebûna hilberê ji nû ve kalîbre dike.
Çawa nivîsa hevpeyvîna AI ya "anonîmkirî" dikare ji anonîmê bê derxistin, û Qanûna CLEAR armanc dike ku çi biguherîne?
Nivîs dikare nasnameyê bi rêya nîşanên kontekstî eşkere bike - ezmûnên cihêreng, cih, rêzikên demê, an jî hevoksazî - ji ber vê yekê LLM carinan dikare texmîn bike ka kesek kî ye, her çend nav jî werin rakirin. Ji ber vê yekê "anonîmkirî" pir caran ji sererastkirina sade parastinên bihêztir hewce dike. Bi awayekî cuda, Qanûna CLEAR ya pêşniyarkirî dê şîrketan teşwîq bike ku berhemên bi mafên nivîskariyê yên ku di perwerdeyê de têne bikar anîn eşkere bikin, û nîqaşan ji "baweriya me bikin" ber bi şefafiyeteke pîvanbartir ve bibe.