⚖️ Anthropic dozê li Pentagonê dike da ku asteng bike ku Pentagonê têxe lîsteya reş ji ber sînorkirinên karanîna AI-ê ↗
Anthropic piştî ku wekî xetereya zincîra dabînkirinê hate binavkirin, şerê xwe yê li dijî Pentagonê bir dadgehê. Şîrket dibêje ku ev tevger tolhildanek neqanûnî bû ji bo redkirina sivikkirina bendên parastinê yên li dora çekên xweser û çavdêriya navxweyî - ku vê nakokiyê di nav xalên herî şewitbar ên siyaseta AI de di cih de dihêle. ( Reuters )
Hikûmet ji bo "her karanîna qanûnî" nermbûnek dixwaze, di heman demê de Anthropic îdîa dike ku divê hîn jî destûr bê dayîn ku laboratuarên taybet xetên ewlehiyê yên hişk xêz bikin. Ev bûye yek ji ceribandinên herî zelal ên heya niha ku gelo pargîdaniyek AI dikare ji şertên leşkerî re bêje "na" bêyî ku ji ber vê yekê were cezakirin. ( Reuters )
🧑💻 Karmendên OpenAI û Google piştgirî didin doza Anthropic a li dijî Pentagonê ↗
Ew doz zû ji hundirê laboratuarên reqîb jî piştgirî wergirt. Nêzîkî 40 karmendên OpenAI û Google di daxuyaniyek dostane de piştgirî dan Anthropic, û gotin ku tolhildana li dijî şîrketan ji ber xetên sor ên ewlehiya AI li dijî berjewendiya giştî ye. ( The Verge )
Belê, reqîb ji nişkê ve xwe li heman alî dîtin - bi kêmanî di vê xalê de. Kurteçîrok li ser çavdêriya girseyî û çekên xweser ên ne pêbawer disekine, ku tevahiya meseleyê kêmtir wekî êrîşeke standard a Silicon Valley û bêtir wekî xêzeke pîşesaziyê ya rastîn di nav qûmê de... an jî dibe ku di nav heriyê de hîs dike. ( The Verge )
🛡️ OpenAI ji bo ewlekirina ajanên xwe yên AI, Promptfoo kirî ↗
OpenAI got ku ew Promptfoo dikire, destpêşxeriyek ku balê dikişîne ser parastina modelên zimanî yên mezin ji êrîşên dijber. Plan ew e ku teknolojiya xwe di OpenAI Frontier de, platforma pargîdaniyê ya pargîdaniyê ji bo ajanên AI, bicîh bike. ( TechCrunch )
Ev gaveke girîng e. Her kes dixwaze ku AI ya ajan li her derê bêtir, zûtir bike - lê aliyê ewlehiyê li paş maye, çi hindik be çi pir be. Ev peyman nîşan dide ku OpenAI difikire ku pêşbirka mezin a din ne tenê ji bo ajanên zîrektir e, lê ji bo yên ewletir jî ye. ( TechCrunch )
🧪 Anthropic amûra nirxandina kodê dide destpêkirin da ku lehiya kodên ji hêla AI ve hatine çêkirin kontrol bike ↗
Anthropic Code Review di hundirê Claude Code de belav kir, ku armanc ew e ku tîmên ku di daxwazên kişandinê yên ji hêla amûrên kodkirina AI ve hatine afirandin de dixeniqin, bixeniqînin. Ew gelek ajanên bi hev re bikar tîne da ku kodê skan bike, pirsgirêkên mantiqî nîşan bide, giraniya wan rêz bike, û şîroveyan rasterast li GitHub bihêle. ( TechCrunch )
Pêşgotin pir hêsan e - AI kodê ji ya ku mirov dikarin bi aqilane binirxînin zûtir çêdike, ji ber vê yekê naha AI neçar e ku AI-ê binirxîne. Rêbazek hinekî wekî ku dûvikê xwe dixwe mar e, lê pratîkî ye. Anthropic dibêje ku ew ji bo bikarhênerên pargîdaniyê ye ku jixwe ji Claude Code derana kodê ya mezin dibînin. ( TechCrunch )
💰 Nirxa Nscale ya ku ji hêla Nvidia ve tê piştgirî kirin di gera fînansmana nû de 14.6 mîlyar dolar e ↗
Şîrketa binesaziya AI ya Brîtanî Nscale di gera Series C de 2 milyar dolar berhev kir û gihîşt 14.6 milyar dolarî. Piştgir Aker, 8090 Industries, Nvidia, Citadel, Dell, û Jane Street bûn - ku ev yek dengek baweriyê ya pir giran dide. ( Reuters )
Ev yek girîng e ji ber ku ew ne destpêkirina modelek din an jî guhertina chatbotê ye. Ew aliyê hildan û şovelan ê geşbûnê ye - hesabkirin, binesazî, kapasîte, hemî makîneyên giran ên li pişt perdeyê. Belkî ne balkêş e, lê niha piraniya pereyan li wir diherikin. ( Reuters )
🧠 AMI Labs a Yann LeCun ji bo çêkirina modelên cîhanê 1.03 milyar dolar berhev dike ↗
Projeya nû ya Yann LeCun, AMI Labs, bi nirxandina berî pere ya 3.5 milyar dolarî 1.03 milyar dolar berhev kir. Şîrket li dû "modelên cîhanê" ye - pergalên AI yên ku ji rastiyê bi xwe fêr dibin ne ku bi giranî ji ziman. ( TechCrunch )
Ev rasterast li ser lihevkirina heyî ya giran a LLM-ê ye, û her weha pir eşkere ye. LeCun bi salan e argûman dike ku modelên zimanê îroyîn dê me negihînin asta aqilê mirovan, ji ber vê yekê ev bilindkirin wê argûmanê vediguherîne ceribandinek pir biha. ( TechCrunch )
🇨🇳 Navendên teknolojiyê yên Çînî tevî hişyariyên ewlehiyê ajansa AI ya OpenClaw pêşve dixin ↗
Çend hikûmetên herêmî yên Çînî piştgirîya OpenClaw dikin, ajanek AI ku tevî fikarên ewlehiyê yên bi gihîştina wê ya daneyên kesane ve girêdayî, bi lez belav dibe. Ji ber vê yekê, xuya ye ku rewşa fermî ev e: erê, xetere hene - û erê, bila em her çi dibe bila bibe wê mezin bikin. ( Reuters )
Ew dabeşbûn çîrok e. Navendên herêmî dixwazin aboriya baş û leza ekosîstemê baştir bibe, di heman demê de sazûmankar li ser eşkerekirina daneyan hişyariyê didin. Ev êdî şêwazek AI-ê ya naskirî ye - pêşî birevin, paşê rêbendan paqij bikin, an jî wisa xuya dike. ( Reuters )
Pirsên Pir tên Pirsîn
Çima Anthropic ji ber sînordarkirinên karanîna AI doz li Pentagonê vedike?
Anthropic dibêje ku Pentagonê piştî ku şîrket şertên berfirehtir red kir ku dikarin çekên xweser û çavdêriya navxweyî jî dirêj bikin, ew wekî xetereyek ji bo zincîra dabînkirinê bi nav kir. Ev yek dozê ji statuya firoşkar bêtir vedigire. Ew diceribîne ka gelo laboratuwarek AI dikare sînorên ewlehiyê yên hişk bicîh bîne û dîsa jî bêyî ku were cezakirin ji bo karê hikûmetê pêşbaziyê bike.
Çima karmendên OpenAI û Google di vê nakokiya ewlehiya AI de piştgiriyê didin Anthropic?
Kurteya amicus nîşan dide ku gelek kesên di nav laboratuarên reqabetê de vê yekê wekî pirsgirêkek ewlehiya AI-ê ya pêşîn dibînin, ne tenê şerek di navbera pargîdaniyek û ajansekê de. Fikara wan ew e ku cezakirina firoşkarek ji ber parastina xetên sor dikare zextê li bazara berfireh bike da ku ewlehiyê qels bike. Di pratîkê de, ev dikare şekil bide ka peymanên AI-ê yên parastinê û sektora giştî çawa têne danûstandin.
Doza Anthropic-Pentagon dikare çi ji bo siyaseta AI û peymanên parastinê biguherîne?
Eger Anthropic bi ser bikeve, dibe ku şîrketên AI bingehek xurttir hebe da ku karanînên nepejirandî diyar bikin, tewra dema ku difiroşin hawîrdorên hesas ên hikûmetê. Ger ew winda bike, ajans dikarin ji dabînkeran şertên "karanîna qanûnî" yên berfirehtir bixwazin. Çi dibe bila bibe, ev nakokî muhtemelen dê bandorê li ser zimanê kirînê, nirxandinên rîskan û awayê ku parêzvanên ewlehiyê di peymanên parastinê de têne nivîsandin bike.
Çima OpenAI ji bo ajanên AI Promptfoo kirî?
Promptfoo bi ceribandina modelên zimanî yên mezin li dijî fermanên dijber û qelsiyên din ên ewlehiyê tê nasîn. Bicîhkirina wî celebî amûran di platforma ajansa pargîdaniyê ya OpenAI de nîşan dide ku pargîdanî bicihkirina ewletir wekî avantajek pêşbaziyê dibîne ne wekî karekî alî. Ji ber ku ajanên AI karekî girîngtir digirin ser xwe, ceribandina berxwedan û îstismara pir dijwartir dibe ku were paşguh kirin.
Tîm çawa dikarin bi ewlehîtir bi lehiya kodên ji hêla AI ve hatine çêkirin re mijûl bibin?
Taybetiya Nirxandina Kodê ya nû ya Anthropic di hundirê Claude Code de ji bo tîmên ku ji hêla daxwazên kişandinê yên ji hêla amûrên kodkirina AI ve têne çêkirin ve têne bargiran kirin e. Ew gelek ajanên bi hev re bikar tîne da ku pirsgirêkên mantiqî bibîne, giraniya wan rêz bike, û şîroveyan li GitHub bihêle. Bi gelemperî, amûrên wekî vê dibin alîkar ku cildê triyaj bikin, lê nirxanderên mirovî hîn jî ji bo mîmarî, çarçove û pejirandina dawîn girîng in.
Çima binesaziya AI niha ewqas veberhênanê werdigire?
Gera fînansmana dawî ya Nscale destnîşan dike ku pîşesaziya AI hîn jî sermayeyek mezin dişîne nav hesabkirin, binesazî û kapasîteyê. Dibe ku ev xerckirin ji destpêkirina modelek berbiçav kêmtir xuya be, lê ew bingeha her tiştî ye. Dema ku daxwaza ji bo perwerde û bicihkirinê zêde dibe, pargîdaniyên ku çizm û şovîlan difiroşin pir caran dibin hin ji serketîyên herî mezin.
Modelên cîhanê çi ne, û çima Yann LeCun li ser wan qumarê dike?
Modelên cîhanê sîstemên AI ne ku ji bo fêrbûna ji awayê tevgerîna cîhanê hatine çêkirin, ne ku bi giranî xwe bispêrin daneyên ziman. Ev girîng e ji ber ku Yann LeCun demek dirêj e argûman dike ku modelên ziman bi tena serê xwe ne mimkûn e ku bigihîjin aqilê asta mirovan. AMI Labs vê nêrînê vediguherîne behîsek bazirganî ya mezin li ser rêyek cûda ji bo lêkolîna AI ya pêşkeftî.
Tevî hişyariyên ewlehiyê, çima navendên teknolojiyê yên Çînî piştgiriyê didin OpenClaw?
Çîroka OpenClaw di nav bazarên teknolojiyê yên bilez de dabeşbûnek nas nîşan dide: hikûmetên herêmî mezinbûn, subvansîyon û leza ekosîstemê dixwazin, di heman demê de sazî û rêvebir li ser eşkerekirina daneyan û ewlehiyê fikar dikin. Piştgiriya ajan tevî hişyariyan nîşan dide ku teşwîqên aborî li hin deveran serdest in. Ji bo çavdêran, ew bîranînek din e ku pejirandin pir caran ji çavdêriyê zûtir dibe.