ആർട്ടിഫിഷ്യൽ ഇന്റലിജൻസിനെ നിയന്ത്രിക്കും;സൈന്യം, രഹസ്യാന്വേഷണ സേവനങ്ങൾ, അന്വേഷണ അധികാരികൾ എന്നിവയ്ക്ക് ഒഴിവാക്കലുകൾ: യൂറോപ്യൻ യൂണിയൻ

യൂറോപ്യൻ യൂണിയൻ ആർട്ടിഫിഷ്യൽ ഇന്റലിജൻസിനെ നിയന്ത്രിക്കും!!!

ഉപയോഗിച്ച സാങ്കേതികവിദ്യ പരിഗണിക്കാതെ തന്നെ കൃത്രിമബുദ്ധി എന്നതിന് EU ഒരു നിഷ്പക്ഷ നിർവചനം രൂപീകരിച്ചു. ഭാവിയിലെ സംഭവവികാസങ്ങൾക്കും AI-യുടെ അടുത്ത തലമുറകൾക്കും നിയമം ബാധകമാക്കാൻ ഇത് ഉദ്ദേശിച്ചുള്ളതാണ്. നിർദ്ദിഷ്‌ട AI ഉൽപ്പന്നങ്ങൾക്കായുള്ള നിയമങ്ങൾ പിന്നീട് ലളിതമായ ഓർഡിനൻസുകളുടെ രൂപത്തിൽ പുറപ്പെടുവിക്കാൻ കഴിയും.

പുതിയ നിയമം എപ്പോൾ പ്രാബല്യത്തിൽ വരും?

മൂന്ന് ദിവസത്തെ ചർച്ചകൾക്ക് ശേഷം, മൂന്ന് പ്രധാന EU സ്ഥാപനങ്ങൾ - യൂറോപ്യൻ കമ്മീഷൻ, പാർലമെന്റ്, കൗൺസിൽ ഓഫ് മിനിസ്റ്റേഴ്‌സ് - ഒരു പ്രാഥമിക കരട് നിയമത്തിന് സമ്മതിച്ചു, അതിൽ സാങ്കേതികമായി ആവശ്യമായ എല്ലാ വ്യവസ്ഥകളും ഇതുവരെ അടങ്ങിയിട്ടില്ല. 2024 ഏപ്രിലിൽ പാർലമെന്റിന്റെ നിയമനിർമ്മാണ കാലയളവിന്റെ അവസാനത്തിൽ നടക്കാനിരിക്കുന്ന 27 അംഗരാജ്യങ്ങളുടെ പ്രതിനിധി ബോഡിയായ യൂറോപ്യൻ പാർലമെന്റും കൗൺസിലും ഇത് ഇപ്പോൾ ഔദ്യോഗികമായി അംഗീകരിക്കേണ്ടതുണ്ട്. അംഗരാജ്യങ്ങൾക്ക് AI നിയമം ദേശീയ നിയമത്തിലേക്ക് മാറ്റാൻ രണ്ട് വർഷത്തെ സമയമുണ്ട്.

യൂറോപ്യൻ യൂണിയൻ നിരോധിച്ചിരിക്കുന്നവ

ആളുകളെ അവരുടെ സ്വഭാവം മാറ്റാൻ നിർബന്ധിക്കുന്ന സംവിധാനങ്ങൾ, ഉദാഹരണത്തിന് അപകടകരമായ പ്രവർത്തനങ്ങൾ ചെയ്യാൻ കുട്ടികളെ പ്രോത്സാഹിപ്പിക്കുന്ന കളിപ്പാട്ടങ്ങൾ, അസ്വീകാര്യമായ വിഭാഗത്തിൽ പെടുന്നു. തത്സമയം മുഖങ്ങൾ തിരിച്ചറിയുന്ന വിദൂര നിയന്ത്രിത ബയോമെട്രിക് തിരിച്ചറിയൽ സംവിധാനങ്ങൾക്കും ഇത് ബാധകമാണ്. ലിംഗഭേദം, ചർമ്മത്തിന്റെ നിറം, സാമൂഹിക സ്വഭാവം അല്ലെങ്കിൽ ഉത്ഭവം എന്നിങ്ങനെയുള്ള ചില സവിശേഷതകളെ അടിസ്ഥാനമാക്കി ആളുകളെ ക്ലാസുകളായി വിഭജിക്കുന്ന AI ആപ്ലിക്കേഷനുകൾ നിരോധിക്കപ്പെടും. സൈന്യം, രഹസ്യാന്വേഷണ സേവനങ്ങൾ, അന്വേഷണ അധികാരികൾ എന്നിവയ്ക്ക് ഒഴിവാക്കലുകൾ നൽകും.

അംഗീകാരത്തോടെ മാത്രം

ഉയർന്ന അപകടസാധ്യത സൃഷ്ടിക്കുന്ന AI പ്രോഗ്രാമുകൾ, മൗലികാവകാശങ്ങളിൽ എന്തെങ്കിലും സ്വാധീനം ചെലുത്തുന്നത് തടയുന്നതിന് വിപണിയിൽ അംഗീകരിക്കപ്പെടുന്നതിന് മുമ്പ് ഒരു അവലോകനത്തിന് വിധേയമായിരിക്കും. ഈ അപകടകരമായ ആപ്ലിക്കേഷനുകളിൽ സ്വയം ഡ്രൈവിംഗ് കാറുകൾ, മെഡിക്കൽ സാങ്കേതികവിദ്യ, ഊർജ്ജ വിതരണം, വ്യോമയാനം, കളിപ്പാട്ടങ്ങൾ എന്നിവ ഉൾപ്പെടുന്നു. എന്നിരുന്നാലും, അതിർത്തി നിരീക്ഷണം, മൈഗ്രേഷൻ നിയന്ത്രണം, പോലീസ് ജോലി, കമ്പനി ഉദ്യോഗസ്ഥരുടെ മാനേജ്മെന്റ്, ഐഡി കാർഡുകളിൽ ബയോമെട്രിക് ഡാറ്റ രേഖപ്പെടുത്തൽ എന്നിവയും അവയിൽ ഉൾപ്പെടുന്നു.

യൂറോപ്യൻ AI നിയമത്തിന്റെ വ്യാഖ്യാനത്തെയും പ്രയോഗത്തെയും സഹായിക്കാൻ ഉദ്ദേശിച്ചുള്ള പ്രോഗ്രാമുകളും ഉയർന്ന അപകടസാധ്യതയുള്ളവയും നിയന്ത്രണത്തിന് വിധേയവുമാണ്.

ജനറേറ്റീവ് AI-യുടെ സുതാര്യത

EU നിയമനിർമ്മാതാക്കൾ പറയുന്നതനുസരിച്ച്, മൈക്രോസോഫ്റ്റ് അനുബന്ധ സ്ഥാപനമായ OpenAI-യിൽ നിന്നുള്ള ChatGPT പോലുള്ള ജനറേറ്റീവ് AI ഉൽപ്പന്നങ്ങൾ പോലെ, പുതിയ ഉള്ളടക്കം സൃഷ്ടിക്കുകയും വലിയ അളവിലുള്ള ഡാറ്റ വിശകലനം ചെയ്യുകയും ചെയ്യുന്ന സിസ്റ്റങ്ങൾ ഒരു ഇടത്തരം അപകടസാധ്യത സൃഷ്ടിക്കുന്നു.

കമ്പനികൾ അവരുടെ AI എങ്ങനെ പ്രവർത്തിക്കുന്നുവെന്നും നിയമവിരുദ്ധമായ ഉള്ളടക്കം സൃഷ്ടിക്കുന്നതിൽ നിന്ന് എങ്ങനെ തടയുന്നു എന്നതിനെക്കുറിച്ചും സുതാര്യത പുലർത്താൻ ബാധ്യസ്ഥരാണ്. AI എങ്ങനെയാണ് പരിശീലിപ്പിച്ചതെന്നും ഏത് പകർപ്പവകാശ പരിരക്ഷിത ഡാറ്റയാണ് ഉപയോഗിച്ചതെന്നും അവർ വെളിപ്പെടുത്തണം. ഉദാഹരണത്തിന്, ChatGPT ഉപയോഗിച്ച് സൃഷ്ടിച്ച എല്ലാ ഉള്ളടക്കവും ലേബൽ ചെയ്തിരിക്കണം.

പരിമിതമായ നിയന്ത്രണങ്ങൾ

പുതിയ EU നിയമങ്ങൾ അനുസരിച്ച്, വീഡിയോകൾ, ഓഡിയോ അല്ലെങ്കിൽ ഫോട്ടോകൾ കൈകാര്യം ചെയ്യുന്നതും പുനർനിർമ്മിക്കുന്നതുമായ പ്രോഗ്രാമുകൾ കുറഞ്ഞ അപകടസാധ്യത മാത്രമേ നൽകുന്നുള്ളൂ. പല സോഷ്യൽ മീഡിയ പ്ലാറ്റ്‌ഫോമുകളിലും ഇതിനകം സാധാരണമായ "ഡീപ് വ്യാജങ്ങൾ" എന്ന് വിളിക്കപ്പെടുന്നതും ഇതിൽ ഉൾപ്പെടുന്നു. ഉപഭോക്താക്കളെ പരിപാലിക്കുന്ന സേവന പ്രോഗ്രാമുകളും ഈ റിസ്ക് ക്ലാസിൽ പെടുന്നു, ഏറ്റവും കുറഞ്ഞ സുതാര്യത നിയമങ്ങൾ മാത്രമേ ബാധകമാകൂ. ഉപയോക്താക്കൾക്ക് തങ്ങൾ സംവദിക്കുന്നത് ഒരു AI ആപ്ലിക്കേഷനുമായാണ്, അല്ലാതെ മനുഷ്യരുമായല്ല. AI പ്രോഗ്രാം ഉപയോഗിക്കുന്നത് തുടരണോ വേണ്ടയോ എന്ന് അവർക്ക് സ്വയം തീരുമാനിക്കാം.

🔰അനാവശ്യ പ്രതികരണങ്ങൾ ഒഴിവാക്കുക
🔔ഡെയ്‌ലി മലയാളി ന്യൂസ് JOIN     

"'എവിടെ പ്രാർഥിച്ചിട്ടും കാര്യമില്ല ശിക്ഷിക്കപ്പെടും,നടന്നത് കോടാനു കോടികളുടെ കൊള്ള..!! '', Watch the video #crime

അർത്തുങ്കൽ പള്ളിയിലെ ആരും കാണാത്ത ചരിത്ര രഹസ്യം..!

 വാർത്തകൾ 💬 നേരത്തെ അറിയൂ .. എല്ലാവരിലേക്കും എത്തിക്കൂ SUBCRIBE         
ഡെയ്‌ലി മലയാളി ന്യൂസ് വാർത്തകൾ 💬 അയയ്ക്കാൻ &  പരസ്യങ്ങൾക്ക് 📩 : dailymalayalyinfo@gmail.com ☎: +918606657037

buttons=(Accept !) days=(20)

Our website uses cookies to enhance your experience. Learn More
Accept !