🦞 Damezrênerê OpenClaw Steinberger tevlî OpenAI dibe, robota çavkaniya vekirî dibe weqf ↗
Peter Steinberger ber bi OpenAI ve diçe da ku "ajanên kesane" pêş bixe, di heman demê de OpenClaw bi xwe di bingehekê de tê danîn da ku çavkaniya vekirî (û piştgirîkirî) bimîne. Ew dabeşkirin… hinekî jîr e - avaker bigirin kar, projeyê giştî bihêlin.
Pêşniyara OpenClaw bi awayekî nûjen pratîkî ye: triyaja e-nameyê, kaxezên sîgorteyê, qeydkirina firînan, karên rêveberiya jiyanê yên acizker. Ew li ser GitHub-ê jî zêde bûye, û ev populerbûn fikarên ewlehiyê derxistiye holê, nemaze heke mirov wê bi bêhişmendî bikar bînin.
🪖 Raport dibêje, Pentagon ji berteka Anthropic li ser karanîna modela AI ya Claude ji hêla artêşê ve 'bêzar' bûye, dibe ku têkiliyan qut bike ↗
Şerê bingehîn: Pentagon dixwaze gihîştina berfireh û "ji bo hemî armancên qanûnî" hebe, û Anthropic hîn jî hewl dide ku sînorên hişk li dora çekên bi tevahî xweser û çavdêriya girseyî bihêle. Ev cure nakokiyek e ku heta ku kesek nebêje, "dibe ku em şûna we bigirin." wekî felsefî xuya dike
Xalek kêm nirxandî - rayedar naxwazin model ji nişkê ve di nîvê herikîna kar de asteng bike, û ew naxwazin dozên sînor her û her bi hev re danûstandinê bikin (adil e… lê di heman demê de ne wisa ye). Li vir tensiyoneke rastîn a "kî mifteyê digire" heye, û ne veşartî ye.
🧠 Modela avakirina destpêkê ji bo pêşbînîkirina tevgera mirovan ↗
Simile 100 milyon dolar pere kişand da ku modelek "fêrbûna bi sînor" ava bike ku armanc dike pêşbînî bike ka mirov dikarin çi bikin - di nav de, bi taybetî, pêşbînîkirina pirsên muhtemel di tiştên wekî bangên qezencê de. Armanc teng, heweseke mezin, tevlîheviyek hinekî tirsnak.
Ev rêbaz xwe dispêre hevpeyvînên bi mirovên rastîn re û daneyên lêkolînên tevgerî, dû re simulasyonan bi ajanên AI re dimeşîne da ku tercîhên rastîn nîşan bide. Ew mîna çêkirina modelek hewayê ji bo biryarên mirovan e… ku heya ku ne wusa be ne gengaz xuya dike.
🧑⚖️ Agahdarî: Qesra Spî zextê li qanûndanêrê Utahê dike ku pêşnûmeya şefafiyeta AI betal bike ↗
Hewldaneke li ser asta eyaletê ya ji bo şefafiyeta zekaya sûnî li Utahê rasterast ji Qesra Spî tê rexnekirin, rayedar ji sponsorê qanûnê dixwazin ku wê pêş de neyne. Çarçoveya qanûnê hemî li ser şefafiyet û ewlehiya zarokan e - li ser optîkên saf dijwar e ku meriv pê re nîqaş bike.
Lê şerê mezintir li ser dadweriyê ye: kî dikare qaîdeyan destnîşan bike, eyalet an hikûmeta federal. Û erê, ew dengek e - mîna du kesan ku heman dîreksiyonê digirin û israr dikin ku ew ên aram in.
🎬 ByteDance piştî gefên Disney soz dide ku pêşî li karanîna IP-ya bêdestûr li ser amûra vîdyoyê ya AI bigire ↗
Disneyê ji bo jeneratora vîdyoyê ya AI ya ByteDanceê agirbestek şand, û ByteDance dibêje ku ew tedbîrên ewlehiyê xurt dike da ku pêşî li karanîna bêdestûr a IP û dişibihiyê bigire. Gilî - tê îdiakirin - ew e ku amûr dikare karakterên naskirî yên franchise wekî ku ew tenê ... stikerên domaina giştî bin derxe holê.
Ew pevçûna ku her kesî pê hesiya bû: amûrên vîdyoyê yên AI-ya vîrusî bi lez pêşve diçin, studyo dibin mijara dozê, û "em ê tedbîrên ewlehiyê lê zêde bikin" dibe zimanê lêborînê yê xwerû. Bi kurtasî, teknoloji dişibihe sêrbaziyê - û aliyê qanûnî jî dişibihe giraniyê.
Pirsên Pir tên Pirsîn
Ev tê çi wateyê ku damezrînerê OpenClaw tevlî OpenAI bû di heman demê de OpenClaw çû weqfekê?
Ev nîşana dabeşbûnekê ye di navbera kesê ku "ajanên kesane" ava dike û projeya ku bi awayekî giştî tê birêvebirin. Tevlîbûna Steinberger bo OpenAIyê nîşan dide ku ew ê li wir li ser pêşvebirina berhemên bi şêwaza ajanê bisekine. Danîna OpenClaw di bingehekê de armanc dike ku ew çavkaniya vekirî bihêle û bi awayekî domdar piştgirî bike. Di pratîkê de, ev tevger armanc dike ku baweriya civakê biparêze dema ku avaker diçe cihê ku çavkanî lê ne.
Çima ajanên AI yên bi şêwaza OpenClaw li ser karên wekî e-name û kaxezan disekinin?
Ji ber ku karê "rêveberiya jiyanê" dubarekirî, li ser bingeha rêzikan û demdirêj e, ev yek wê dike armancek pratîkî ji bo otomasyonê. Nimûneyên li vir - triyaja e-nameyê, kaxezên sîgorteyê, û qeydkirina firînan - karên teng in ku pîvanên serkeftinê yên zelal hene. Ev balkişandin dikare ajanan ji alîkarên bêtir vekirî zûtir xwe bi qîmet hîs bikin. Ew her weha destnîşan dike ka çima kontrolên gihîştinê yên baldar girîng in dema ku ajan dest didin hesabên kesane.
Hûn çawa dikarin ajanek AI-ya çavkaniya vekirî mîna OpenClaw bêyî ku pirsgirêkên ewlehiyê biafirînin bicîh bikin?
Wek nermalava ku dikare daneyên hesas bibîne, lê wek skrîptek pêlîstokê bihesibîne. Rêbazek hevpar ew e ku meriv bawernameyan kilît bike, destûrên herî kêm bi sînor bike, û tomar û şopên denetimê biparêze. Di hawîrdorek sînorkirî de bimeşîne û ji pergalên bi nirx bilind veqetîne. Gelek fikarên ewlehiyê ji bicihkirina bêxem derdikevin, nemaze dema ku mirov xalên dawî an nîşanekan bêyî parastinên bihêz eşkere dikin.
Çima Pentagon ji qedexeyên Anthropic ên li ser Claude ji bo karanîna leşkerî nerazî ye?
Nakokî li ser çarçove û kontrolê disekine: Pentagon dixwaze gihîştina berfireh a "hemû armancên qanûnî", lê Anthropic wekî ku sînorên hişk li dora çekên bi tevahî xweser û çavdêriya girseyî diparêze tê wesifandin. Karbidest her wiha naxwazin ku model rê li ber herikîna kar bigirin an jî danûstandinên bêdawî yên li ser sînorên qiraxê hewce bikin. Ev alozî ji ya ku xuya dike kêmtir abstrakt e - ew li ser wê yekê ye ku kî biryar dide ka model dikare di operasyonên rastîn de çi bike.
Çawa destpêker hewl didin ku bi karanîna AI-ê tevgera mirovan pêşbînî bikin, û çima ew wekî nakok xuya dike?
Mînaka li vir, Simile, modelek "fêrbûna bi sînor" dişopîne ku armanc dike pêşbînî bike ka mirov dikarin çi bikin, di nav de pêşbînîkirina pirsên muhtemel di çarçoveyên wekî bangên qezencê de. Nêzîkatiya ku tê vegotin hevpeyvînan bi daneyên lêkolîna tevgerî û simulasyonan re tevlihev dike ku ajanên AI bikar tînin da ku tercîhên rastîn nîşan bidin. Ew tirsnak xuya dike ji ber ku ew AI ji bersivdayîna mirovan vediguhezîne pêşbîniya wan. Pirsgirêk ew e ku îdîayan sînordar bike û ji baweriya zêde dûr bisekine.
Dema ku amûrên vîdyoyê yên AI karakterên bi mafên kopîkirinê çêdikin, mîna di pevçûna ByteDance-Disney de, çi dibe?
Qaliba ku hatiye ragihandin nas e: studyoyek agirbestek dide, û platform bi xurtkirina tedbîrên ewlehiyê bersiv dide da ku pêşî li karanîna IP an jî dişibihe ya bêdestûr bigire. Di gelek amûran de, tedbîr tê wateya fîlterên naverokê yên hişktir, tespîtkirina çêtir a karakterên nasbar, û sepandina polîtîkayên bikarhêner ên zelaltir. Nakokiya bingehîn leza li hember berpirsiyariyê ye - hilberîna vîrus bi lez dimeşe, û sepandina mafan mîna giraniyê tevdigere. Dema ku jeneratorên vîdyoyê belav dibin, li bendê bin ku bêtir ji van pevçûnan hebin.