Kina ka propozuar rregulla të reja dhe të rrepta për inteligjencën artificiale (AI), me synimin për të mbrojtur fëmijët dhe për të parandaluar chatbot-et nga ofrimi i këshillave që mund të çojnë në vetëlëndim apo dhunë, shkruan BBC.
Sipas rregullave të planifikuara, zhvilluesit e AI do të duhet gjithashtu të sigurojnë që modelet e tyre të mos gjenerojnë përmbajtje që promovon lojërat e fatit.
Njoftimi vjen në një kohë kur numri i chatbot-eve po rritet me shpejtësi në Kinë dhe në mbarë botën.
Pasi të finalizohen, rregullat do të zbatohen për të gjitha produktet dhe shërbimet e inteligjencës artificiale në Kinë, duke shënuar një hap të rëndësishëm drejt rregullimit të një teknologjie që po rritet me shpejtësi dhe që këtë vit ka qenë nën vëzhgim të fortë për shkak të shqetësimeve mbi sigurinë.
Draft-rregullat, të publikuara gjatë fundjavës nga Administrata e Hapësirës Kibernetike të Kinës (CAC), përfshijnë masa të posaçme për mbrojtjen e fëmijëve. Ato kërkojnë që kompanitë e AI të ofrojnë cilësime të personalizuara, të vendosin kufizime kohore për përdorimin dhe të marrin pëlqimin e prindërve ose kujdestarëve përpara se të ofrojnë shërbime shoqërimi emocional.
Sipas CAC, operatorët e chatbot-eve duhet të përfshijnë menjëherë një ndërhyrje njerëzore në çdo bisedë që lidhet me vetëlëndimin dhe të njoftojnë pa vonesë kujdestarin e përdoruesit ose një kontakt emergjent.
Ofruesit e shërbimeve të AI duhet gjithashtu të garantojnë që platformat e tyre të mos gjenerojnë ose shpërndajnë “përmbajtje që rrezikon sigurinë kombëtare, dëmton nderin dhe interesat kombëtare ose cenon unitetin kombëtar”.
CAC theksoi se mbështet përdorimin e inteligjencës artificiale, për shembull për promovimin e kulturës lokale apo për krijimin e mjeteve shoqëruese për të moshuarit, për sa kohë që teknologjia është e sigurt dhe e besueshme. Autoritetet kanë ftuar gjithashtu publikun të japë komente mbi rregullat e propozuara.
Kompania kineze e AI, DeepSeek, bëri bujë këtë vit në nivel global pasi kryesoi listat e shkarkimeve të aplikacioneve.
Ndërkohë, këtë muaj dy startup-e kineze, Z.ai dhe Minimax, të cilat kanë së bashku dhjetëra milionë përdorues, njoftuan plane për t’u listuar në bursë.
Teknologjia ka fituar me shpejtësi një numër të madh përdoruesish, me disa që e përdorin për shoqërim apo mbështetje emocionale. Ndikimi i AI mbi sjelljen njerëzore ka qenë nën shqyrtim të shtuar muajt e fundit.
Sam Altman, drejtuesi i OpenAI, kompania që zhvillon ChatGPT, ka deklaruar këtë vit se mënyra se si chatbot-et reagojnë ndaj bisedave që lidhen me vetëlëndimin është një nga sfidat më të vështira për kompaninë.
Në gusht, një familje në Kaliforni ngriti padi ndaj OpenAI pas vdekjes së djalit të tyre 16-vjeçar, duke pretenduar se ChatGPT e kishte nxitur drejt vetëvrasjes. Padia shënoi rastin e parë ligjor që akuzon OpenAI për përgjegjësi në një vdekje.
Këtë muaj, OpenAI shpalli gjithashtu një vend pune për një “drejtues të përgatitjes”, i cili do të ketë përgjegjësinë për mbrojtjen ndaj rreziqeve që modelet e AI mund të paraqesin për shëndetin mendor të njerëzve dhe për sigurinë kibernetike.
Kandidati i përzgjedhur do të ketë për detyrë të monitorojë rreziqet e inteligjencës artificiale që mund të dëmtojnë njerëzit. Sam Altman tha: “Do të jetë një punë stresuese dhe do të futesh menjëherë në ujëra të thella.”
















