യൂറോപ്യൻ യൂണിയൻ ലോകത്തെ ആദ്യത്തെ സമഗ്ര എഐ നിയന്ത്രണ നിയമനിർമാണത്തിലേക്ക് കടക്കുന്നു
ആ യോഗം അംഗീകരിച്ച കരടു നിയമത്തിന്റെ പൂർണരൂപം ഇനിയും ലഭ്യമല്ല. പക്ഷെ, യൂറോപ്യൻ യൂണിയന്റെ പത്രക്കുറിപ്പുകളിൽ നിന്നും മറ്റു റിപ്പോർട്ടുകളിൽ നിന്നും ലഭ്യമായ വിവരങ്ങളനുസരിച്ച് ഏറെ പ്രാധാന്യമുള്ള പല നിർദ്ദേശങ്ങളും ഉള്ള ഒരു നിയമമാണിത്: എഐ സാങ്കേതികവിദ്യകളുടെ അപായ സാധ്യതകളുടെ അടിസ്ഥാനത്തിലുള്ള വർഗീകരണം; വ്യക്തികളുടെ മൗലികാവകാശങ്ങളെയും സ്വകാര്യതയേയും ലംഘിക്കുന്ന തരത്തിലുള്ള എഐ ഉപയോഗങ്ങളുടെ നിരോധനം; പൊതു ആവശ്യങ്ങൾക്കായുള്ള എഐ മോഡലുകളുടെ (general purpose AI) നിയന്ത്രണം എന്നിങ്ങനെ.
നിർമിതബുദ്ധിയുടെ സാമൂഹ്യ നിയന്ത്രണം അനിവാര്യമാണെന്നത് ഇന്ന് പൊതുവേ അംഗീകരിക്കപ്പെട്ട് കഴിഞ്ഞിട്ടുണ്ട്. മനുഷ്യന്റെ ജീവിത വ്യവഹാരങ്ങളുടെ സമസ്തതലങ്ങളെയും സപർശിക്കാൻ കെല്പുള്ള ഈ സാങ്കേതികവിദ്യയുടെ ഒരേ സമയം പ്രത്യാശയും മനുഷ്യ സമൂഹത്തിന്റെ നിലനില്പിനുതന്നെ ഭീഷണിയും ഉയർത്തുന്ന ദ്വിമുഖ സ്വഭാവം ഏറെ ആശങ്കകളുണർത്തുന്നു.
യൂറോപ്യൻ യൂണിയന്റേത് ഈ ആശങ്കകൾക്ക് പരിഹാരം കാണാനുള്ള ആദ്യത്തെ നിയമനിർമാണ ശ്രമങ്ങളിലൊന്നാണ്. അതുകൊണ്ടു തന്നെ യൂറോപ്യൻ കമ്മീഷൻ പ്രസിഡന്റ് ഉർസുല വോൺ ഡെർ ലെയ്ൻ ഇതിനെ ഒരു ചരിത്ര നിമിഷം എന്ന് വിശേഷിപ്പിക്കുമ്പോൾ അതിനെ ഒരു അതിശയോക്തിയായി കാണേണ്ടതില്ല. നിർമിതബുദ്ധി ഉയർത്തുന്ന വെല്ലുവിളികളെ പ്രായോഗികമായി നേരിടുന്നതിൽ ഈ നിയമം അതിന്റെ അന്തിമരൂപത്തിൽ എത്രമാത്രം ഫലപ്രദമാകും എന്ന സംശയം പല കോണുകളിൽ നിന്നും ഉയരുന്നുണ്ടെങ്കിൽ പോലും.
വരും ദിവസങ്ങളിൽ ഈ നിയമത്തിന്റെ വിശദാംശങ്ങളിൽ ധാരണയിൽ എത്താനുള്ള ചർച്ചകൾ നടക്കും. അതിന് ശേഷം അംഗ രാഷ്ട്രങ്ങളുടെയും പാർലമെന്റിന്റെയും അംഗീകാരം കിട്ടണം. ഈ നടപടി ക്രമങ്ങളെല്ലാം കഴിഞ്ഞു മാത്രമേ ഇത് ഔദ്യോഗികമായി നിയമമാകുകയുള്ളൂ.
ചർച്ചകൾ, തർക്കങ്ങൾ
യൂറോപ്യൻ കമ്മീഷൻ ആർട്ടിഫിഷ്യൽ ഇന്റെലിജൻസ് ആക്റ്റ് (EU AI Act) ആദ്യം മുന്നോട്ട് വെച്ചത് 2021 ഏപ്രിലിൽ ആയിരുന്നു. അവിടുന്നിങ്ങോട്ട് കഴിഞ്ഞ ആഴ്ചയിൽ ഉണ്ടായ രാഷ്ട്രീയ ധാരണ വരെയുള്ള യാത്ര സുഖമമായിരുന്നില്ല. ആദ്യം നിശ്ചയിച്ച സമയപരിധിക്കപ്പുറത്തേക്ക് നീണ്ടു പോയ അവസാനവട്ട ചർച്ചകളിൽ പോലും പുതിയ നിരവധി നിർദ്ദേശങ്ങൾ ഉയർന്നു വന്നു എന്നാണ് റിപ്പോർട്ടുകൾ പറയുന്നത്.
ഇതിൽ അസ്വാഭാവികമായി ഒന്നുമില്ല. ആപൽസാധ്യതകളെ കുറിച്ചുള്ള വലിയ ആശങ്കകൾ നിലനിൽക്കുമ്പോഴും, ആഗോള സമ്പദ്വ്യവസ്ഥയുടെ ഉദ്പാദന-വിതരണ -ഉപഭോഗ ശൃംഖലകളെ പൊളിച്ചെഴുതാൻ പോകുന്ന ഒരു സാങ്കേതികവിദ്യയാണ് നിർമിതബുദ്ധി. അതിൽ മേൽകൈ നേടുകയെന്നത് മൂലധനശക്തികളൂടെ മാത്രമല്ല രാജ്യങ്ങളുടെ രാഷ്ട്രീയ നേതൃത്വങ്ങളുടെ കൂടെ ആവശ്യമാണ്. മാത്രമല്ല, സൈനിക ബലാബലത്തിലും ഭരണകൂടം പൗരസമൂഹത്തിന് മേൽ ചെലുത്തുന്ന നിയന്ത്രണങ്ങളിലും നിർമിതബുദ്ധി വഹിക്കാൻ പോകുന്ന പങ്കും ഏറെ വലുതാണ്. ഇങ്ങനെ വിപണിക്കും അധികാരത്തിനും ഒരേ പോലെ പ്രിയപ്പെട്ട ഒരു സാങ്കേതികവിദ്യയെ കൂച്ചു വിലങ്ങിടാനുള്ള നിയമനിർമാണ ശ്രമങ്ങൾ തീക്ഷ്ണമായ താല്പര്യ സംഘർഷങ്ങളുടെ വേദികളായില്ലെങ്കിലേ അത്ഭുതപ്പെടേണ്ടതുള്ളൂ.
അപായസാധ്യതകളുടെ അടിസ്ഥാനത്തിൽ എഐ സാങ്കേതികവിദ്യകളെ തരംതിരിക്കുമ്പോൾ ഓരോ പട്ടികയിലും എന്തൊക്കെ ഉൾപ്പെടുത്തേണമെന്നത് സ്വാഭാവികമായും വലിയ തർക്കങ്ങൾക്ക് ഇടയാക്കി. കൂറ്റൻ വിവരശേഖരങ്ങൾ (Big Data) ഉപയോഗിച്ച് പരിശീലിപ്പിച്ചെടുക്കുന്ന, പല കാര്യങ്ങൾക്കായി ഉപയോഗിക്കാവുന്ന, ‘അടിസ്ഥാന നിർമിതബുദ്ധി മോഡലുകൾ’ (Foundation AI models) എങ്ങിനെ നിയന്ത്രിക്കണമെന്നതിനെ കുറിച്ചുള്ള തർക്കങ്ങൾ പലപ്പോഴും ചർച്ചകളുടെ വഴിമുട്ടിച്ചു.
വിവിധ പ്രായോഗിക സാധ്യതകളുള്ള ഓപ്പൺഐയുടെ ജിപിടിയും ഗൂഗിളിന്റെ ജമിനിയും പോലുള്ള മോഡലുകളെ അടിസ്ഥാന നിർമിതബുദ്ധി മോഡലുകളായി കണക്കാക്കാം. രണ്ടു വർഷങ്ങൾക്ക് മുൻപ് ഐഐ ആക്റ്റ് ആദ്യമായി അവതരിപ്പിക്കപ്പെട്ടപ്പോൾ ഇത്തരം മോഡലുകളുടെ പ്രത്യാഘാതങ്ങൾ അത്രമാത്രം പൊതുമണ്ഡലത്തിൽ ചർച്ചയായിരുന്നില്ല. എന്നാൽ ഇപ്പോൾ, ചാറ്റ്ജിപിടിക്ക് ശേഷം, അതല്ല സ്ഥിതി. അവയെ ഈ നിയമത്തിന്റെ ചട്ടക്കൂട്ടിനകത്ത് ഉൾപ്പെടുത്തേണ്ടത് അനിവാര്യമായി കഴിഞ്ഞിരിക്കുന്നു. അതേ സമയം അത്തരം മോഡലുകളെ എങ്ങിനെ കൃത്യമായ നിർവ്വചിക്കും എന്നതടക്കമുള്ള കാര്യങ്ങൾ ഒത്തുതീർപ്പിലെത്താൻ എളുപ്പമുള്ള വിഷയങ്ങളായിരുന്നില്ല താനും.
ഒരു ഘട്ടത്തിൽ, ഫ്രാൻസും ജർമ്മനിയും ഇറ്റലിയും നിയമബന്ധിതമായ കടുത്ത നിയന്ത്രണങ്ങളേക്കാൾ അഭികാമ്യം ‘അടിസ്ഥാന നിർമിതബുദ്ധി മോഡലുകൾ’ നിർമ്മിക്കുന്ന കമ്പനികളുടെ സ്വമേധയായുള്ള സ്വയം നിയന്ത്രണങ്ങളാണെന്ന് വാദിക്കുക പോലുമുണ്ടായി. കടുത്ത നിയന്ത്രണങ്ങൾ ഈ രംഗത്ത് ആധിപത്യത്തിനായുള്ള മത്സരത്തിൽ യൂറോപ്യൻ കമ്പനികൾക്ക് തിരിച്ചടി ഉണ്ടാക്കിയേക്കാമെന്ന ഭയമായിരുന്നു ഇതിനു പിന്നിൽ.
അപായസാധ്യതകളെ ആധാരമാക്കിയുള്ള തരംതിരിവ്
സമൂഹത്തിന് ദോഷമുണ്ടാക്കാനുള്ള സാധ്യതകളെ (risks) അടിസ്ഥാനമാക്കിയുള്ള എഐ സാങ്കേതികവിദ്യകളുടെ വർഗീകരണമാണ് ഈ നിയമത്തിന്റെ പ്രധാന ചട്ടക്കൂട് . ഈ തരംതിരിവ് അനുസരിച്ച് “അസ്വീകാര്യമായ അപകടസാധ്യതകൾ ” (“unacceptable risks) ഉണ്ടാക്കുന്ന എഐ ഉപയോഗങ്ങൾ നിരോധിക്കപ്പെടും. വലിയ അപകടസാധ്യതയുള്ള (high risk) മേഖലകളിലെ ദോഷങ്ങൾ ലഘൂകരിക്കാൻ കർശനമായ നിയന്ത്രണ വ്യവസ്ഥകൾക്ക് വിധേയമാക്കും. അതേ സമയം ആപൽസാധ്യതകൾ ഇല്ലാത്ത, അല്ലെങ്കിൽ ഏറ്റവും കുറഞ്ഞ (limited risk) നിർമിതബുദ്ധിയുടെ ഗവേഷണ വികസന പ്രവർത്തനങ്ങളും ഉപയോഗവും നിർബാധം തുടരാനൊക്കുകയും ചെയ്യും
ഇപ്പോഴത്തെ കരട് നിയമ പ്രകാരം അസ്വീകാര്യമായ അപകടസാധ്യതകൾ കാരണം യൂറോപ്യൻ യൂണിയനിൽ നിരോധിക്കപ്പെടാൻ പോകുന്ന നിർമിതബുദ്ധി ഉപയോഗങ്ങളുടെ പട്ടിക ശ്രദ്ധേയമാണ്: മനുഷ്യരുടെ ചിന്തയേയും സ്വഭാവങ്ങളെയും കൃത്രിമമായി സ്വാധീനിക്കുകയും മാറ്റുകയും ചെയ്യുക (cognitive behavioural manipulation); ഇൻറർനെറ്റിൽ നിന്നോ സിസിടിവി ഫൂട്ടേജിൽ നിന്നോ ആരുടേതെന്നില്ലാതെ മുഖങ്ങൾ തിരിച്ചറിയാനുള്ള ശ്രമങ്ങൾ; വിദ്യാർത്ഥികളുടെയും തൊഴിലാളികളുടെയുമൊക്കെ വികാരങ്ങളെ അവരുടെ സമ്മതമില്ലാതെ മനസ്സിലാക്കുക; സാമൂഹികമായ മൂല്യനിർണയം (social scoring); ലൈംഗിക ആഭിമുഖ്യം, മതവിശ്വാസങ്ങൾ, രാഷ്ട്രീയ വീക്ഷണങ്ങൾ തുടങ്ങിയ കാര്യങ്ങൾ അനുമാനിക്കാൻ ബയോമെട്രിക് വർഗീകരണം ഉപയോഗിക്കുക എന്നിങ്ങനെ.
അതേ സമയം തീവ്രവാദം, മനുഷ്യക്കടത്ത്, കുട്ടികളെ ലൈംഗികമായി ചൂഷണം ചെയ്യൽ, മയക്കുമരുന്ന് കടത്ത് തുടങ്ങിയ ചില കുറ്റകൃത്യങ്ങളിൽ കോടതിയുടെ അനുമതിയോടെ പൊലീസിന് പൊതുസ്ഥലങ്ങളിൽ ബയോമെട്രിക് തിരിച്ചറിയൽ ഉപയോഗപ്പെടുത്താനുള്ള അനുമതി നിയമത്തിൽ ഉൾപ്പെടുത്തിയിട്ടുണ്ട്. പ്രതിരോധം, രാജ്യസുരക്ഷ തുടങ്ങിയ കാര്യങ്ങളിലും ഈ നിയമം ബാധകമായിരിക്കില്ല.
ആരോഗ്യം, സുരക്ഷ, മൗലികാവകാശങ്ങൾ, പരിസ്ഥിതി, ജനാധിപത്യം, നിയമവാഴ്ച മുതലായ കാര്യങ്ങളെ ദോഷകരമായി ബാധിക്കാനിടയുള്ള എഐ സാങ്കേതികവിദ്യകളെ ആണ് ഉയർന്ന അപകടസാധ്യത ഉള്ളവയായി തരംതിരിച്ചിട്ടുള്ളത്. അസ്വീകാര്യമായ അപകടസാധ്യതളുള്ളവയെ പോലെ നിരോധിക്കപ്പെടില്ലെങ്കിലും ഇവയുടെ ഉപയോഗം കർശനമായ നിയന്ത്രങ്ങൾക്ക് വിധേയമായിട്ടായിയിരിക്കും നടപ്പിലാക്കുക. ഉപയോഗിക്കുന്ന ഡാറ്റയുടെ ഗുണനിലവാരം, വിശദമായ രേഖകൾ, മനുഷ്യരുടെ മേൽനോട്ടം, കൃത്യത, സൈബർ സുരക്ഷ തുടങ്ങിയ കാര്യങ്ങൾ ഉറപ്പു വരുത്തുന്നതായിരിക്കും ഈ നിയന്ത്രണങ്ങൾ.
സുതാര്യത ലക്ഷ്യം
മനുഷ്യരുടെ ദൈനംദിന ജീവിതത്തിൽ നിർമിതബുദ്ധിയുടെ ഉപയോഗം വ്യാപകമാകുമ്പോൾ ഉണ്ടാകുന്ന അപ്രതീക്ഷിത പരിണിതഫലങ്ങളിലൊന്ന് അതിൽ ‘ബുദ്ധി’ ഉള്ള യന്ത്രം വഹിക്കുന്ന പങ്ക് പലപ്പോഴും തിരിച്ചറിയപ്പെടുന്നില്ല എന്നതാണ്. അതിന് ഒരു ഉദാഹരണമാണ് മനുഷ്യരുണ്ടാക്കിയതെന്ന് തിരിച്ചറിയാൻ കഴിയാത്ത രീതിയിലുള്ള പാഠങ്ങളും പടങ്ങളും വീഡിയോകളും ഉൾപ്പെടെയുള്ള രചനകൾ നിർമ്മിക്കാൻ കഴിയുന്ന ജനറേറ്റീവ് എഐ. ഇത്തരം സോഫ്റ്റ്വേറുകൾ വ്യാപകമായതോടെ അവയുടെ ദുരുപയോഗവും കൂടി വരുന്നുണ്ട്. എഐ ഉപയോഗിച്ച് നിർമ്മിക്കുന്ന ഡീപ്ഫേക്കുകൾക്ക് വ്യക്തികളെ അപകീർത്തിപ്പെടുത്താനും സ്ഥാപനങ്ങളുടെ വിശ്വാസ്യത നഷ്ടപ്പെടുത്താനും മാത്രമല്ല ജനാധിപത്യ പ്രക്രിയയെ അപകടപ്പെടുത്താനും ജനജീവിതത്തെ താറുമാറാക്കുന്ന സ്ഥിതിവിശേഷങ്ങൾ ഉണ്ടാക്കാനും കഴിയും.
ആപത്സാധ്യതകളെ അടിസ്ഥാനമാക്കിയ തരംതിരിവുകളോടൊപ്പം നിർമിതബുദ്ധി ഉണ്ടാക്കുന്ന രചനകളുടെ സുതാര്യത ഉറപ്പുവരുത്താനുള്ള വ്യവസ്ഥകളും ഇയു എഐ ആക്റ്റിൽ ഉൾപ്പെടുത്തിയിട്ടുണ്ട്. ഉദാഹരണത്തിന് ചാറ്റ്ബോട്ടുകൾ പോലെയുള്ള സംവിധാനങ്ങൾ ഉപയോഗിക്കുമ്പോൾ ഒരു മെഷീനുമായി സംവദിക്കുകയാണെന്ന് ഉപയോക്താക്കൾ അറിഞ്ഞിരിക്കണം. ഡീപ് ഫേക്കുകൾ കൃത്യമായി ലേബൽ ചെയ്യപെടുന്നുണ്ടെന്ന് ഉറപ്പു വരുത്തണം. ബയോമെട്രിക് വർഗീകരണം, വ്യക്തികളുടെ വികാരങ്ങളെ തിരിച്ചറിയൽ തുടങ്ങിയ കാര്യങ്ങൾക്ക് എഐ ഉപയോഗിക്കുമ്പോൾ അത് ഉപയോക്താക്കളെ അറിയിക്കേണ്ടതും നിർബന്ധമാക്കും.
അതുപോലെ കൃതിമമായി പടങ്ങളും പാഠങ്ങളും വീഡിയോകളും പോലുള്ള രചനകൾ ഉണ്ടാക്കാൻ സഹായിക്കുന്ന എഐ സംവിധാനങ്ങൾ രൂപകല്പന ചെയ്യുമ്പോൾ അത്തരം രചനകൾ കൃത്രിമമായി ഉണ്ടാക്കപ്പെട്ടവയാണെന്ന് മനസിലാക്കാനുള്ള മാർഗങ്ങൾ അവയിൽ ഉൾപ്പെടുത്തേണ്ടത് നിർമിതാക്കളുടെ ബാധ്യതയാകും.
ഇൻഷുറൻസ്, ബാങ്കിംഗ് തുടങ്ങിയ അവശ്യസേവന തുറകളിൽ എഐ ഉപയോഗിക്കുമ്പോൾ അത് വ്യക്തികളുടെ മൗലികാവകാശങ്ങളെ എങ്ങനെ ബാധിക്കുമെന്നതിനെക്കുറിച്ച് ആഘാത പഠനം നിർബന്ധമാക്കാനുള്ള വ്യവസ്ഥകളും ഈ ബില്ലിൽ ഉൾപ്പെടുത്തിയിട്ടുണ്ട്.
‘അടിസ്ഥാന നിർമിതബുദ്ധി മോഡലുകൾ’ എന്ന് വിശേഷിപ്പിക്കപ്പെടുന്ന, പല കാര്യങ്ങൾക്കായി ഉപയോഗിക്കാവുന്ന എഐ മോഡലുകളെ (Foundation AI models) കുറിച്ചുള്ള തർക്കങ്ങൾ ഈ നിയമനിർമാണ വേളയിൽ എങ്ങിനെ നിർണായകമായി എന്ന് മുകളിൽ സൂചിപ്പിച്ചിരുന്നു.
സാങ്കേതികമായ വിശദാംശങ്ങൾ, പരിശീലനത്തിനായി ഉപയോഗിക്കുന്ന ഉള്ളടക്കത്തെക്കുറിച്ചുള്ള വിവരങ്ങൾ തുടങ്ങിയ കാര്യങ്ങൾ സംഗ്രഹിക്കുകയും പരസ്യപ്പെടുത്തുകയും ചെയ്യുക, യൂറോപ്യൻ യൂണിയൻ പകർപ്പവകാശ നിയമം അനുസരിക്കുന്നുവെന്ന് ഉറപ്പു വരുത്തുക എന്നിവ ഉൾപ്പെടെ ഇത്തരം മോഡലുകളുടെ സുതാര്യത ഉറപ്പാക്കാനുള്ള വ്യവസ്ഥകൾ ഇപ്പോൾ കരട് നിയമത്തിലുണ്ട്.
‘അടിസ്ഥാന എഐ മോഡലുകളിൽ ഘടനയിൽ തന്നെ അപകടസാധ്യതകൾ അന്തർലീനമായിട്ടുള്ളവയ്ക്ക് നിയമപ്രകാരം അധിക ബാധ്യതകൾ ഉണ്ടാകും: ആപൽസാധ്യതകളെ അളക്കാനും ലഘൂകരിക്കാനും വേണ്ടുന്ന വിശദമായ പഠനങ്ങളും ടെസ്റ്റുകളും നടത്തുക; ഗുരുതരമായ സംഭവ വികാസങ്ങൾ യൂറോപ്യൻ യൂണിയൻ കമ്മീഷനെ യഥാസമയം അറിയിക്കുക; സൈബർ സുരക്ഷ ഉറപ്പാക്കുക, മോഡലുകളുടെ ഊർജ്ജ കാര്യക്ഷമത റിപ്പോർട്ട് ചെയ്യുക, എന്നിങ്ങനെ. കൂറ്റൻ വിവര ശേഖരങ്ങൾ ഉപയോഗിച്ച് പരിശീലിപ്പിച്ചെടുക്കുന്ന, ശരാശരിയിൽ കവിഞ്ഞ കഴിവുകളുള്ള, ഘടനാപരമായ സവിശേഷതകൾ കൊണ്ട് വിവിധ ഉപയോഗങ്ങളിൽ അധിക ആപൽസാധ്യതകൾ ഉണ്ടാക്കാനിടയുള്ള ഉള്ള സങ്കീർണമായ എഐ മോഡലുകളെയാണ് കമ്മീഷൻ ഇക്കൂട്ടത്തിൽ ഉൾപ്പെടുത്തിയിട്ടുള്ളത്.
എന്ത് മാനദണ്ഡമാണ് ഇങ്ങനെയുള്ള മോഡലുകളെ കണ്ടെത്താൻ ഉപയോഗിക്കുക എന്നത് ഒരു തർക്കവിഷയമായിരുന്നു. ഒടുവിൽ, മോഡലുകളുടെ പരിശീലനത്തിന് ആവശ്യമായ കംപ്യൂട്ടറുകളുടെ മൊത്തം ഗണനശേഷിയെ (cumulative computing power) ഇതിനായി ഉപയോഗിക്കാനാണ് അവർ തീരുമാനിച്ചത്. ഒരു സെക്കന്റിൽ എത്ര ഫ്ലോട്ടിംഗ് പോയിന്റ് ഓപ്പറേഷൻസ് (Floating Point Operations per Second – FLOPS) ഉപയോഗിക്കുന്നു എന്ന് അളക്കുകയാണ് ഇത് കണക്കാക്കാനുള്ള ഒരു രീതി. 10^25 FLOPS-ൽ കൂടുതൽ ഉപയോഗപ്പെടുത്തുന്ന മോഡലുകളെയാണ് അധിക ആപൽസാധ്യതകൾ ഉള്ളവയായി ഈ നിയമം കണക്കാക്കുക എന്നാണ് മനസ്സിലാകുന്നത്. ഇന്ന് നിലവിലുള്ള ഏതൊക്കെ മോഡലുകൾ ഈ പരിധിക്ക് പുറത്ത് കടക്കും എന്നത് വ്യക്തമല്ല.
പല കാരണങ്ങൾ കൊണ്ട് വലിയ വിമർശനങ്ങൾക്ക് വിധേയമാകാൻ സാധ്യതയുള്ള ഒരു തീരുമാനമാണിത്. പരിശീലനത്തിന് ആവശ്യമായ കംപ്യൂട്ടറുകളുടെ പ്രവർത്തന ശേഷി എത്രമാത്രം ശരിയായ മാനദണ്ഡമാണ് എന്നതാണ് ഒരു പ്രധാന പ്രശ്നം. മോഡലുകളുടെ നിർമിതാക്കൾക്ക് മാത്രം നിർണയിക്കാനാകുന്ന ഒരു കാര്യം ഒരു മാനദണ്ഡമായി മാറുന്നതും ആശാസ്യമല്ല. എംഐടി ടെക്നോളജി റിവ്യൂ മാസികയുടെ ലേഖിക മെലിസ ഹൈക്കിലാർകൈവ് ചൂണ്ടി കാണിച്ചത് പോലെ കർശനമായ നിയമങ്ങൾക്ക് കീഴിലാണോ എന്ന് വിലയിരുത്തേണ്ടത് കമ്പനികൾ തന്നെയായി മാറുന്നതായിരിക്കും ഇതിന്റെ അനന്തരഫലം.
യൂറോപ്യൻ യൂണിയൻ വഴികാട്ടിയാകുമോ?
ഏതു നിയമവും ആത്യന്തികമായി വിലയിരുത്തപ്പെടേണ്ടത് അത് എത്ര ഫലപ്രദമായി നടപ്പിലാകുന്നു എന്നതിന്റെ അടിസ്ഥാനത്തിൽ ആയിരിക്കണം. നേരത്തെ ചൂണ്ടികാട്ടിയതുപോലെ ഈ നിയമം അതിന്റെ അന്തിമരൂപത്തിൽ സുരക്ഷിതവും വിശ്വസനീയവുമായ നിർമിതബുദ്ധി എന്ന ലക്ഷ്യം കൈവരിക്കുന്നതിന് യൂറോപ്യൻ യൂണിയനെ എത്രത്തോളം സഹായിക്കുമെന്നത് കാത്തിരുന്നു കാണേണ്ട ഒരു കാര്യമാണ്. വൻകിട ബിസിനസുകളുടെയും രാഷ്ട്രീയ നേതൃത്വങ്ങളുടെയും നിക്ഷിപ്ത താല്പര്യങ്ങളെ മറികടന്ന് പൊതുതാല്പര്യങ്ങൾ സംരക്ഷിക്കുന്ന ഒരു നിയമനിർമാണം എളുപ്പമല്ല.
ഈ ആക്റ്റ് ഔദ്യോഗിക നിയമമായി രണ്ട് വർഷങ്ങൾക്ക് ശേഷം മാത്രമേ മിക്ക വ്യവസ്ഥകളും ബാധകമാകൂ. പക്ഷെ, അസ്വീകാര്യമായ അപകടസാധ്യതകളുള്ള എഐ സാങ്കേതികവിദ്യകൾക്കുള്ള നിരോധനം 6 മാസങ്ങൾക്ക് ശേഷവും, പൊതു ആവശ്യങ്ങൾക്കുള്ള എഐയുമായി ബന്ധപ്പെട്ട വ്യവസ്ഥകൾ 12 മാസത്തിന് ശേഷവും ബാധകമാകും. യൂറോപ്യൻ കമ്മീഷനിനുള്ളിൽ ഉണ്ടാക്കാൻ പോകുന്ന ഒരു പുതിയ എഐ ഓഫീസും അംഗരാജ്യങ്ങളുടെ പ്രതിനിധികൾ ഉൾപ്പെട്ട എഐ ബോർഡും വ്യവസായ പ്രതിനിധികളും ശാസ്ത്ര സാങ്കേതിക രംഗത്ത് നിന്നും മറ്റു മേഖലകളിൽനിന്നുമുള്ള വിദഗ്ദ്ധരും ചേർന്ന ഒരു ഉപദേശക സമിതിയും ചേർന്നായിരിക്കും ഈ നിയമ നിർവഹണത്തിന് ചുക്കാൻ പിടിക്കുക.
ലോകത്തെ ആദ്യത്തെ സമഗ്ര എഐ നിയന്ത്രണ നിയമം യാഥാർഥ്യമാകുമ്പോൾ അത് മറ്റു രാഷ്ട്രങ്ങളുടെ ഇങ്ങനെയുള്ള നിയമനിർമ്മാണ സംരംഭങ്ങളെ സ്വാധീനിക്കുമെന്നത് തീർച്ചയാണ്. ഇതിന് സമാനമായ’ഒരു മുൻകാല അനുഭവമുള്ളതും യൂറോപ്യൻ യൂണിയനിൽ നിന്നു തന്നെയാണ്. ഇന്റർനെറ്റിൽ ഉപയോക്താക്കളുടെ സ്വകാര്യതയും സുരക്ഷിതത്വവും ഉറപ്പാക്കുന്നതിന് ഇന്നുള്ള ഏറ്റവും ശക്തമായ നിയമം അവരുടെ ഡാറ്റ പ്രൊട്ടക്ഷൻ റെഗുലേഷൻ (GDPR) ആണ്. 2018 ൽ നിലവിൽ നടപ്പിലായ ഈ നിയമം മറ്റു രാജ്യങ്ങൾക്ക് മാതൃകയായിട്ടുണ്ട്.
മാത്രമല്ല, യൂറോപ്യൻ യൂണിയനെ പോലുള്ള വലിയ വിപണിയിൽ ഒരു സാങ്കേതികവിദ്യയെ നിയന്ത്രിക്കാനുള്ള നിയമം നടപ്പിലാകുമ്പോൾ, അത് കൂടി കണക്കിലെടുത്ത് ആ സാങ്കേതികവിദ്യയെ മുന്നോട്ടു കൊണ്ടു പോകാൻ കമ്പനികൾ ഒരു പരിധിവരെയെങ്കിലും നിർബന്ധിതരാകും എന്നതും ആശാവഹമായ കാര്യമാണ്.