🏫 Li hin dibistanan, chatbot xwendekaran li ser karê wan dipirsin. Lê şoreşa AI mamosteyan dixe nav fikaran ↗
Hin dibistanên Awustralyayê şêwazek tûjtir a "karkirina xwe nîşan bide" diceribînin - xwendekar peywirekê diqedînin, dûv re robotek sohbetê ya AI wan bi hev re dipirse da ku kontrol bike ka ew tiştê ku şandine fêm dikin. Ew di bingeh de vivayek devkî ye, lê bi makîneyekê dipirse "mebesta te bi vê çi ye?" heya ku hûn dest bi lerizînê bikin.
Fikara mezintir belavkirina newekhev e: gotarek pîşesaziyê hişyarî dide ku kesên ku zû vê sîstemê bikar tînin dikarin bi lez pêş bikevin dema ku yên din jî paşde bimînin, û ev yek pergalek perwerdehiyê ya du-lez diafirîne. Mamoste her wiha fikarên nas - û hîn jî cidî - tînin ziman: nepenî, refah, û çawa pêşî li "alîkariya AI" bigirin ku bibe "AI ew kir".
👮 Polîsê Met amûrên AI-ê yên ku ji hêla Palantir ve hatine peyda kirin bikar tîne da ku neheqiya polîsan eşkere bike ↗
Met a Londonê ji bo analîzkirina şêwazên hêza kar a navxweyî - nexweşî, dev ji kar berdan, demjimêrên zêde - AI-ya ku ji hêla Palantir ve hatî peyda kirin bikar tîne - li sînyalên ku dibe ku bi pirsgirêkên standardên pîşeyî re têkildar bin digere. Ew wekî pîlotek bi demkî tê pêşkêş kirin û, ya girîng, Met dibêje ku mirov hîn jî biryarên rastîn didin ... lê ew "hîn jî" gelek kar dike.
Federasyona Polîsan ne pir kêfxweş e, wê wekî "gumanbariya otomatîk" bi nav dike û li ser amûrên nezelal ên ku stres û barê kar wekî xeletî dixwînin hişyarî dide. Ev yek ji wan kêliyan e ku teknolojî li ser slaytê xweşik xuya dike, dû re hûn xeyal dikin ka ew li erdê çawa hîs dike û ew bi tundî tûj dibe.
🛡️ Çavdêrê nepenîtiyê yê Keyaniya Yekbûyî di daxuyaniyek hevbeş de li ser wêneyên ji hêla AI ve hatine çêkirin hişyarî dide ↗
ICO ya Keyaniya Yekbûyî tevlî sazûmankarên din bû di hişyariyek hevbeş de li ser wêneyên ji hêla AI ve hatine çêkirin ku mirovên nasnameyî bêyî razîbûnê nîşan didin - di bingeh de: "ew sentetîk e" wekî hincetek efsûnî nebînin. Peyam ev e ku zû tedbîrên ewlehiyê ava bikin û sazûmankaran bi kar bînin li şûna ku tevgera teknolojîk a klasîk a pêşî şandinê û paşê lêborînê bixwazin bikin.
Ew her wiha xetereyên zêde ji bo zarokan destnîşan dikin, ku ev jî maqûl e, ji ber ku gava ev tişt belav dibe, ew mîna hewildana vegerandina şewqê nav şûşeyekê ye. Mebest ew e ku nepenî û rûmet ji bo mayîndebûna di çerxa modayê de ne, an jî wisa xuya dike.
🪖 Axios radigihîne ku Wezîrê Parastinê yê Amerîkayê Hegseth CEOyê Anthropic ji bo danûstandinên dijwar li ser karanîna leşkerî ya Claude gazî dike ↗
Reuters radigihîne ku Wezîrê Parastinê yê Dewletên Yekbûyî yên Amerîkayê dê bi CEOyê Anthropic re bicive ji bo tiştek ku wekî axaftinek bêtir pevçûnê li ser karanîna leşkerî ya Claude tê binav kirin. Li gorî raporan, Pentagon dixwaze ku dabînkerên sereke yên AI modelan li ser torên veşartî bi sînorkirinên kêmtir peyda bikin - û Anthropic li hember her sistkirina tedbîrên ewlehiyê li ber xwe daye.
Nivîsa binî wekî dîlemayeke klasîk a "zû tevbigerin lê ... bi mûşekan re" tê xwendin. Ger alî li ser rêbendan li hev nekin, têkilî dikare aloz bibe an jî qut bibe - lê Anthropic her wiha nîşan dide ku danûstandinên bi hikûmetê re avaker dimînin, ji ber vê yekê ew aloz e, lê ne nivîsên tevahî yên veqetandinê ne (hîn).
🧠 ChatGPT - Têbînîyên Berdanê ↗
Nîşeyên berdana OpenAI balê dikişînin ser pencereyeke çarçoveya berfirehkirî ji bo moda "Ramanînê" - ev tê vê wateyê ku hûn dikarin modelê bêtir nivîsê bidin û têlên dirêjtir bêyî ku hûrguliyên berê winda bike hevgirtî bihêlin. Ger we qet dîtibe ku modelek tiştek ku we bi rastî tenê gotiye "ji bîr kiriye" (êş), ev tam ji bo wê armancê ye.
Ew nûvekirinek pir nerdy ye ku bi bêdengî tiştê pratîkî diguherîne: belgefîlmên dirêjtir, projeyên tevlihevtir, rûniştinên lêkolînê yên berfirehtir. Ne balkêş e, lê ew celeb guhertina lûleyan e ku ji nişkê ve tevahiya xanî mezintir hîs dike.
Pirsên Pir tên Pirsîn
Dema ku dibistan ji bo "pirsyarkirina" xwendekaran li ser erkên dibistanê, chatbotan bi kar tînin, ev tê çi wateyê?
Li hin dibistanên Awustralyayê, xwendekar peywirekê temam dikin û dûv re bi chatbotek AI re di nav danûstandinekê de ne ku sedemên wan dinirxîne. Ew mîna vivayek devkî dixebite, xwendekaran neçar dike ku rave bikin ka wan çi nivîsandiye û çima. Armanc verastkirina têgihîştinê ye, ne tenê encam. Ew dikare valahiyên ku xwendekarek nikare îdiayên sereke biparêze jî eşkere bike.
Çawa dikarin chatbotên AI di dibistanan de sîstemek perwerdehiyê ya "du-lez" biafirînin?
Gotareke pîşesaziyê hişyarî dide ku dibistanên ku zû pêş dikevin dikarin pêş bikevin, lê dibistanên ku hêdî hêdî pêşve diçin, dikarin paşde biçin. Ger hin dibistan amûrên AI-ê bikar bînin da ku têgihîştinê binirxînin, piştgirîya fêrbûnê bikin, an jî xelet bikar bînin, dibe ku ew encaman zûtir bilind bikin. Dibe ku yên din ji bo bicihanîna pergalên berawirdî budce, kapasîteya karmendan, an zelaliya polîtîkayê kêm bin. Ew wergirtina newekhev dikare valahiyên heyî yên çavkanî û destkeftiyan fireh bike.
Mamosta çawa hewl didin ku rê li ber veguhertina "alîkariya AI" bo "AI kir" bigirin?
Rêbazek hevpar ew e ku nirxandin ber bi pêvajo û ravekirinê ve were guhertin, ne tenê ber bi berhema qedandî ve. Pirsên bi şêwaza chatbot, pêşnûme, raman, an kontrolên devkî dikarin şandina karên ku hûn fêm nakin dijwartir bikin. Mamoste dikarin sînorên hişktir li ser alîkariya qebûlkirî destnîşan bikin, wek mînak raman-torning li hember ji nû ve nivîsandina tevahî. Girîngî li ser nîşandana têgihîştinê dimîne, ne li ser kontrolkirina her amûrekê.
Dema ku AI (sûnî û fîzyolojî) di polan de tê bikar anîn, çi pirsgirêkên nepenîtiyê û refahê derdikevin holê?
Mamoste her tim fikarên xwe yên li ser daneyên xwendekaran ên ku têne berhevkirin, li ku têne hilanîn û kî dikare bigihîje wan tînin ziman. Her wiha fikarên li ser başbûna tenduristiyê jî hene ger xwendekar hîs bikin ku bi berdewamî ji hêla lêpirsînên makîneyê ve têne şopandin an jî di bin zextê de ne. Zarok komeke xetereyê ya taybetî ne, ji ber ku agahiyên hesas dikarin bi awayên nediyar di pergalan de belav bibin an jî bimînin. Gelek dibistan armanc dikin ku zû tedbîrên ewlehiyê deynin ne ku hewl bidin ku paşê wan ji nû ve saz bikin.
Met çawa zekaya sûnî ya ji hêla Palantir ve hatî peyda kirin bikar tîne da ku kiryarên xirab ên potansiyel ên efseran nîşan bide?
Met a Londonê ji bo analîzkirina şêwazên hêza kar ên wekî nexweşî, devjêberdan û demjimêrên zêde, AI-ya ku ji hêla Palantir ve hatî peyda kirin bikar tîne. Armanc ew e ku sînyalên ku dibe ku bi pirsgirêkên standardên pîşeyî re têkildar bin werin dîtin. Ew wekî pîlotek bi demkî tê binav kirin, û Met dibêje ku mirov hîn jî biryaran didin. Rexnegir dibêjin ku amûr dikare wekî "gumanên otomatîk" were hîs kirin ger ew stresê wekî xeletiyek bixwîne.
Çima sendîkayên polîsan ji "gumanên otomatîk" ên ji amûrên çavdêriya AIyê bi fikar in?
Fikara Federasyona Polîsan ew e ku modelên nezelal dikarin ji qalibên ku ravekirinên wan baş in, nebaşiyê derxin holê. Zêdebûna barê kar, pirsgirêkên tenduristiyê û stres dikarin amadebûn an jî zêdedemjimêran bêyî ku îmaja xeletiyê hebe biguherînin. Ger mantiqa amûrê ne zelal be, ji bo efseran dijwartir dibe ku alan biceribînin an jî ji bo rêvebiran zehmettir dibe ku sînorên adil mîheng bikin. Tewra bi biryarên mirovan re jî, sînyalên otomatîk hîn jî dikarin encaman şekil bidin.
Hişyariya ICO ya Keyaniya Yekbûyî li ser wêneyên kesên ku ji hêla AI ve têne çêkirin çi ye?
Çavdêrê nepenîtiyê yê Keyaniya Yekbûyî tevlî sazûmankarên din bû û hişyarî da ku "sentetîk" nayê wê wateyê ku bê encam e. Ger wêneyek ji hêla AI ve hatî çêkirin kesekî ku bêyî razîbûnê were destnîşankirin nîşan bide, xetereyên nepenîtiyê û rûmetê hîn jî hene. Rêkxer tekez dikin ku zû tedbîr werin girtin û çavdêrî li şûna şandina wan were kirin. Ew her weha xetereyên zêde ji bo zarokan nîşan didin, ku zirar dikare zû mezin bibe piştî ku naverok belav dibe.
Li pişt zexta Pentagonê ya li ser Anthropic a derbarê karanîna Claude ya leşkerî de çi heye?
Reuters radigihîne ku Wezîrê Parastinê yê Dewletên Yekbûyî yên Amerîkayê amade ye ku bi CEOyê Anthropic re bicive da ku li ser karanîna Claude ya leşkerî danûstandinên dijwartir bike. Li gorî raporan, Pentagon dixwaze ku dabînkerên sereke yên AI modelan li ser torên veşartî bi sînorkirinên kêmtir peyda bikin. Anthropic li hember tedbîrên ewlehiyê yên sisttir li ber xwe dide, ku îşaret bi pevçûnek li ser rêgiran dike. Têkilî aloz xuya dike, her çend her du alî jî nîşan didin ku danûstandin avaker dimînin.
Di notên berdana ChatGPT-ê de derbarê dirêjahiya çarçoveya moda "Ramanînê" de çi guherî?
Nîşeyên berdana OpenAI-ê balê dikişînin ser pencereyeke çarçoveya berfirehkirî ji bo moda "Ramanînê", ku dihêle ku bêtir nivîs di yek têlekê de rûnin. Di pratîkê de, ev dikare bi belgeyên dirêj, projeyên tevlihev, û lêkolînên pir-gavî re bibe alîkar ku hûrguliyên berê girîng in. Ew nûvekirinek bi şêwaza lûleyan e ne taybetmendiyek berbiçav. Feydeya sereke ew e ku di rûniştinên dirêjtir de hûrguliyên kêmtir winda dibin.