യൂറോപ്യൻ യൂണിയൻ ആർട്ടിഫിഷ്യൽ ഇന്റലിജൻസിനെ നിയന്ത്രിക്കും!!!
ഉപയോഗിച്ച സാങ്കേതികവിദ്യ പരിഗണിക്കാതെ തന്നെ കൃത്രിമബുദ്ധി എന്നതിന് EU ഒരു നിഷ്പക്ഷ നിർവചനം രൂപീകരിച്ചു. ഭാവിയിലെ സംഭവവികാസങ്ങൾക്കും AI-യുടെ അടുത്ത തലമുറകൾക്കും നിയമം ബാധകമാക്കാൻ ഇത് ഉദ്ദേശിച്ചുള്ളതാണ്. നിർദ്ദിഷ്ട AI ഉൽപ്പന്നങ്ങൾക്കായുള്ള നിയമങ്ങൾ പിന്നീട് ലളിതമായ ഓർഡിനൻസുകളുടെ രൂപത്തിൽ പുറപ്പെടുവിക്കാൻ കഴിയും.
പുതിയ നിയമം എപ്പോൾ പ്രാബല്യത്തിൽ വരും?
മൂന്ന് ദിവസത്തെ ചർച്ചകൾക്ക് ശേഷം, മൂന്ന് പ്രധാന EU സ്ഥാപനങ്ങൾ - യൂറോപ്യൻ കമ്മീഷൻ, പാർലമെന്റ്, കൗൺസിൽ ഓഫ് മിനിസ്റ്റേഴ്സ് - ഒരു പ്രാഥമിക കരട് നിയമത്തിന് സമ്മതിച്ചു, അതിൽ സാങ്കേതികമായി ആവശ്യമായ എല്ലാ വ്യവസ്ഥകളും ഇതുവരെ അടങ്ങിയിട്ടില്ല. 2024 ഏപ്രിലിൽ പാർലമെന്റിന്റെ നിയമനിർമ്മാണ കാലയളവിന്റെ അവസാനത്തിൽ നടക്കാനിരിക്കുന്ന 27 അംഗരാജ്യങ്ങളുടെ പ്രതിനിധി ബോഡിയായ യൂറോപ്യൻ പാർലമെന്റും കൗൺസിലും ഇത് ഇപ്പോൾ ഔദ്യോഗികമായി അംഗീകരിക്കേണ്ടതുണ്ട്. അംഗരാജ്യങ്ങൾക്ക് AI നിയമം ദേശീയ നിയമത്തിലേക്ക് മാറ്റാൻ രണ്ട് വർഷത്തെ സമയമുണ്ട്.
യൂറോപ്യൻ യൂണിയൻ നിരോധിച്ചിരിക്കുന്നവ
ആളുകളെ അവരുടെ സ്വഭാവം മാറ്റാൻ നിർബന്ധിക്കുന്ന സംവിധാനങ്ങൾ, ഉദാഹരണത്തിന് അപകടകരമായ പ്രവർത്തനങ്ങൾ ചെയ്യാൻ കുട്ടികളെ പ്രോത്സാഹിപ്പിക്കുന്ന കളിപ്പാട്ടങ്ങൾ, അസ്വീകാര്യമായ വിഭാഗത്തിൽ പെടുന്നു. തത്സമയം മുഖങ്ങൾ തിരിച്ചറിയുന്ന വിദൂര നിയന്ത്രിത ബയോമെട്രിക് തിരിച്ചറിയൽ സംവിധാനങ്ങൾക്കും ഇത് ബാധകമാണ്. ലിംഗഭേദം, ചർമ്മത്തിന്റെ നിറം, സാമൂഹിക സ്വഭാവം അല്ലെങ്കിൽ ഉത്ഭവം എന്നിങ്ങനെയുള്ള ചില സവിശേഷതകളെ അടിസ്ഥാനമാക്കി ആളുകളെ ക്ലാസുകളായി വിഭജിക്കുന്ന AI ആപ്ലിക്കേഷനുകൾ നിരോധിക്കപ്പെടും. സൈന്യം, രഹസ്യാന്വേഷണ സേവനങ്ങൾ, അന്വേഷണ അധികാരികൾ എന്നിവയ്ക്ക് ഒഴിവാക്കലുകൾ നൽകും.
അംഗീകാരത്തോടെ മാത്രം
ഉയർന്ന അപകടസാധ്യത സൃഷ്ടിക്കുന്ന AI പ്രോഗ്രാമുകൾ, മൗലികാവകാശങ്ങളിൽ എന്തെങ്കിലും സ്വാധീനം ചെലുത്തുന്നത് തടയുന്നതിന് വിപണിയിൽ അംഗീകരിക്കപ്പെടുന്നതിന് മുമ്പ് ഒരു അവലോകനത്തിന് വിധേയമായിരിക്കും. ഈ അപകടകരമായ ആപ്ലിക്കേഷനുകളിൽ സ്വയം ഡ്രൈവിംഗ് കാറുകൾ, മെഡിക്കൽ സാങ്കേതികവിദ്യ, ഊർജ്ജ വിതരണം, വ്യോമയാനം, കളിപ്പാട്ടങ്ങൾ എന്നിവ ഉൾപ്പെടുന്നു. എന്നിരുന്നാലും, അതിർത്തി നിരീക്ഷണം, മൈഗ്രേഷൻ നിയന്ത്രണം, പോലീസ് ജോലി, കമ്പനി ഉദ്യോഗസ്ഥരുടെ മാനേജ്മെന്റ്, ഐഡി കാർഡുകളിൽ ബയോമെട്രിക് ഡാറ്റ രേഖപ്പെടുത്തൽ എന്നിവയും അവയിൽ ഉൾപ്പെടുന്നു.
യൂറോപ്യൻ AI നിയമത്തിന്റെ വ്യാഖ്യാനത്തെയും പ്രയോഗത്തെയും സഹായിക്കാൻ ഉദ്ദേശിച്ചുള്ള പ്രോഗ്രാമുകളും ഉയർന്ന അപകടസാധ്യതയുള്ളവയും നിയന്ത്രണത്തിന് വിധേയവുമാണ്.
ജനറേറ്റീവ് AI-യുടെ സുതാര്യത
EU നിയമനിർമ്മാതാക്കൾ പറയുന്നതനുസരിച്ച്, മൈക്രോസോഫ്റ്റ് അനുബന്ധ സ്ഥാപനമായ OpenAI-യിൽ നിന്നുള്ള ChatGPT പോലുള്ള ജനറേറ്റീവ് AI ഉൽപ്പന്നങ്ങൾ പോലെ, പുതിയ ഉള്ളടക്കം സൃഷ്ടിക്കുകയും വലിയ അളവിലുള്ള ഡാറ്റ വിശകലനം ചെയ്യുകയും ചെയ്യുന്ന സിസ്റ്റങ്ങൾ ഒരു ഇടത്തരം അപകടസാധ്യത സൃഷ്ടിക്കുന്നു.
കമ്പനികൾ അവരുടെ AI എങ്ങനെ പ്രവർത്തിക്കുന്നുവെന്നും നിയമവിരുദ്ധമായ ഉള്ളടക്കം സൃഷ്ടിക്കുന്നതിൽ നിന്ന് എങ്ങനെ തടയുന്നു എന്നതിനെക്കുറിച്ചും സുതാര്യത പുലർത്താൻ ബാധ്യസ്ഥരാണ്. AI എങ്ങനെയാണ് പരിശീലിപ്പിച്ചതെന്നും ഏത് പകർപ്പവകാശ പരിരക്ഷിത ഡാറ്റയാണ് ഉപയോഗിച്ചതെന്നും അവർ വെളിപ്പെടുത്തണം. ഉദാഹരണത്തിന്, ChatGPT ഉപയോഗിച്ച് സൃഷ്ടിച്ച എല്ലാ ഉള്ളടക്കവും ലേബൽ ചെയ്തിരിക്കണം.
പരിമിതമായ നിയന്ത്രണങ്ങൾ
പുതിയ EU നിയമങ്ങൾ അനുസരിച്ച്, വീഡിയോകൾ, ഓഡിയോ അല്ലെങ്കിൽ ഫോട്ടോകൾ കൈകാര്യം ചെയ്യുന്നതും പുനർനിർമ്മിക്കുന്നതുമായ പ്രോഗ്രാമുകൾ കുറഞ്ഞ അപകടസാധ്യത മാത്രമേ നൽകുന്നുള്ളൂ. പല സോഷ്യൽ മീഡിയ പ്ലാറ്റ്ഫോമുകളിലും ഇതിനകം സാധാരണമായ "ഡീപ് വ്യാജങ്ങൾ" എന്ന് വിളിക്കപ്പെടുന്നതും ഇതിൽ ഉൾപ്പെടുന്നു. ഉപഭോക്താക്കളെ പരിപാലിക്കുന്ന സേവന പ്രോഗ്രാമുകളും ഈ റിസ്ക് ക്ലാസിൽ പെടുന്നു, ഏറ്റവും കുറഞ്ഞ സുതാര്യത നിയമങ്ങൾ മാത്രമേ ബാധകമാകൂ. ഉപയോക്താക്കൾക്ക് തങ്ങൾ സംവദിക്കുന്നത് ഒരു AI ആപ്ലിക്കേഷനുമായാണ്, അല്ലാതെ മനുഷ്യരുമായല്ല. AI പ്രോഗ്രാം ഉപയോഗിക്കുന്നത് തുടരണോ വേണ്ടയോ എന്ന് അവർക്ക് സ്വയം തീരുമാനിക്കാം.
ഇവിടെ പോസ്റ്റു ചെയ്യുന്ന അഭിപ്രായങ്ങൾ 🔰Dailymalayaly യുടേതല്ല. അഭിപ്രായങ്ങളുടെ പൂർണ ഉത്തരവാദിത്തം രചയിതാവിനായിരിക്കും.
കേന്ദ്ര സർക്കാരിന്റെ ഐടി നയപ്രകാരം വ്യക്തി, സമുദായം, മതം, രാജ്യം എന്നിവയ്ക്കെതിരായ അധിക്ഷേപങ്ങൾ, അപകീർത്തികരവും സ്പർദ്ധ വളർത്തുന്നതുമായ പരാമർശങ്ങൾ, അശ്ലീല-അസഭ്യപദ പ്രയോഗങ്ങൾ ഇവ ശിക്ഷാർഹമായ കുറ്റമാണ്. ഇത്തരം അഭിപ്രായ പ്രകടനത്തിന് നിയമനടപടി കൈക്കൊള്ളുന്നതാണ്.