Read Time:37 Minute

‘നിർമ്മിതബുദ്ധി സുരക്ഷ’ (AI safety) എന്ന ഒരു പുതിയ ആശയം ഒരു പ്രധാന ആഗോള ചർച്ചാവിഷയമായി രംഗപ്രവേശം ചെയ്തത് 2023 ന്റെ അവസാനകാലത്താണ്. ഈ വിഷയത്തെ മുഖ്യധാരയിൽ എത്തിച്ചത് പ്രധാനമായും സർക്കാരുകളും വൻകിട ടെക് കമ്പനികളും കൂടിയാണ്. ഒരു സംയോജിത പ്രവർത്തനം എന്ന് തോന്നിപ്പിക്കുന്ന രീതിയിൽ അമേരിക്കയിലും യൂറോപ്പിലും നിർമ്മിതബുദ്ധിയുടെ സുരക്ഷയെക്കുറിച്ചുള്ള വാർത്തകളും ചർച്ചകളും 2023 ന്റെ അവസാന ആഴ്ചകളിൽ നിറഞ്ഞു. ബ്രിട്ടണിൽ ‘നിർമ്മിതബുദ്ധി സുരക്ഷ ഉച്ചകോടി’ എന്ന പേരിൽ ബ്രിട്ടീഷ് പ്രധാനമന്ത്രി റിഷി സുനാക്കിന്റെ അദ്ധ്യക്ഷതയിൽ ആഗോള ടെക് ഭീമന്മാരും നിരവധിയായ രാഷ്ട്രസർക്കാരുകളുടെ പ്രതിനിധികളും 2023 നവംബറിൽ ഒത്തുകൂടുകയുണ്ടായി. അതിനും ഏതാനും ദിവസം മുമ്പാണ് അമേരിക്കൻ രാഷ്‌ട്രപതി ഒരു എക്സിക്യൂട്ടീവ് വിജ്ഞാപനത്തിലൂടെ നിർമ്മിതബുദ്ധിയുടെ സുരക്ഷയിലേക്ക് ശ്രദ്ധ ആകർഷിച്ചത്.

2023 ഡിസംബറിൽ ഇന്ത്യയിൽ വെച്ച് സംഘടിപ്പിക്കപ്പെട്ട ആഗോള നിർമ്മിതബുദ്ധി പങ്കാളിത്ത ഉച്ചകോടിയിലും (Global Partnership on AI, GPAI) സുരക്ഷിതമായ നിർമ്മിതബുദ്ധി എന്ന ആശയം നിറഞ്ഞുനിന്നു. ഡൽഹിയിലെ ചർച്ചയിൽ പക്ഷെ സുരക്ഷിതത്വത്തിനോടൊപ്പം ഇന്നൊവേഷൻ എന്ന വശത്തിനും പ്രാധാന്യം കൊടുക്കണം എന്ന് വിലയിരുത്തപ്പെടുകയുണ്ടായി – അതായത് സുരക്ഷിതത്വം പ്രധാനമാണെങ്കിലും അതിൽ നിന്നും പിന്നോക്കം പോകേണ്ട അവസരങ്ങൾ വരുമ്പോൾ അത്തരം തീരുമാനങ്ങൾ എടുക്കുന്നതിനോട് മുഖംതിരിക്കരുത് എന്ന് GPAI പ്രസ്താവന പറയുന്നതായി വ്യാഖ്യാനിക്കാം. ഇന്നൊവേഷൻ എന്ന വാക്കിന് നൂതനമായത് എന്നൊരു സാമാന്യ അർത്ഥം ഉണ്ടെങ്കിലും അത് സാങ്കേതികമേഖലയിൽ ഉപയോഗിക്കപ്പെടുന്നത് പലപ്പോഴും വിപണിക്ക് അനുയോജ്യമായ നൂതനങ്ങളായ കണ്ടുപിടിത്തങ്ങൾ എന്ന നിലയിൽ ആണെന്നുള്ളതും ഇവിടെ നിരീക്ഷിക്കേണ്ടതുണ്ട്.

ഇങ്ങനെയുള്ള വാർത്തകൾ വായിക്കുമ്പോൾ വായനക്കാർക്ക് സ്വാഭാവികമായും തോന്നുക ‘സുരക്ഷിതമായ നിർമ്മിതബുദ്ധി’ എന്ന സങ്കൽപ്പം വളരെ പുരോഗമനപരം ആണെന്നാവും. ശരിക്കും അങ്ങനെ തന്നെയാണോ? മേൽപ്പറഞ്ഞ സംഭവങ്ങളിലും ചർച്ചകളിലും അവതരിപ്പിക്കപ്പെട്ട സുരക്ഷിതമായ നിർമ്മിതബുദ്ധി എന്ന ആശയത്തെ വിമർശനപരമായി വിലയിരുത്തുക എന്നതാണ് ഈ ലേഖനത്തിന്റെ ഉദ്ദേശ്യം.

നിർമ്മിതബുദ്ധി സുരക്ഷയും ഗവേഷണസമൂഹവും

നിർമ്മിതബുദ്ധി സുരക്ഷയുമായി ബന്ധപ്പെട്ട ഉച്ചകോടികളിലും പ്രസ്താവനകളിലും ചർച്ചകളിലും എല്ലാം സർക്കാരുകളുടെയും ടെക് ഭീമന്മാരുടെയും സ്വരം ഉയർന്നു കേൾക്കുന്നതായിട്ടാണ് ശ്രദ്ധയിൽ പെടുന്നത്. അങ്ങനെ വരുമ്പോൾ നിർമ്മിതബുദ്ധിയുമായി ബന്ധപ്പെട്ട ഗവേഷണസമൂഹത്തിന്റെ സ്ഥാനം ഈ വിഷയത്തിൽ എവിടെയാണ് എന്ന ചോദ്യം സ്വാഭാവികമായും പരിശോധിക്കേണ്ടിവരും. ഇനി ആഗോളഗവേഷണ സമൂഹത്തിന്റെ ചിന്തയിൽ ഉദിക്കാത്ത തരത്തിൽ ഉള്ള ഒരു സാമൂഹികനന്മയുടെ ഉന്നതമായ ആവിഷ്കാരം സർക്കാരുകളും ടെക് ഭീമന്മാരും കൂടി സംയുക്തമായി ആവിഷ്കരിച്ചതാകുമോ? ഗവേഷണമേഖലയിലെ ട്രെൻഡുകൾ പരിശോധിച്ചാൽ അങ്ങനെയല്ല കാര്യങ്ങൾ എന്ന് വ്യക്തമാകും. നിർമ്മിതബുദ്ധിയുടെ സാമൂഹിക-രാഷ്ട്രീയ വശങ്ങൾ കഴിഞ്ഞ ഒരു ദശാബ്ദത്തോളമായി വളരെയധികം ഗവേഷണം നടക്കുന്ന മേഖലയാണ്. കഴിഞ്ഞ ഏഴു വർഷങ്ങളിലായി ഈ മേഖലയിൽ പുതുതായി രൂപംകൊണ്ട വാർഷിക ഗവേഷണ സമ്മേളനങ്ങൾ നിരവധിയാണ്. അതിൽ ഏറ്റവും പ്രാധാന്യമുള്ളത് FAccT – Fairness (നീതി), Accountability (ഉത്തരവാദിത്തം), Transparency (സുതാര്യത) എന്ന കോൺഫെറെൻസാണ്. കൂടാതെ നിർമ്മിതബുദ്ധി – നൈതികതയും സമൂഹവും (AI Ethics and Society – AIES), EAAMO (Equity and Access in Algorithms) എന്നിങ്ങനെയും വാർഷിക കോൺഫെറെൻസുകൾ സംഘടിപ്പിക്കപ്പെടുന്നുണ്ട്. ഇത് കൂടാതെ നിരവധിയായ ജേർണലുകളും – നിർമ്മിതബുദ്ധിയും നൈതികതയും (AI and Ethics Journal) എന്നതുൾപ്പെടെ – പുതുതായി രൂപംകൊണ്ടിട്ടുണ്ട്.  ഗവേഷണത്തിന്റെ വ്യാപ്തിയിലും അവയിൽ ഉൾക്കൊള്ളിച്ചിട്ടുള്ള വീക്ഷണകോണുകളിലും വലിയ പോരായ്മകൾ ഉണ്ടെങ്കിൽപ്പോലും നിർമ്മിതബുദ്ധിയിലെ നൈതികത, നീതി, സുതാര്യത, ഉത്തരവാദിത്തം എന്നിങ്ങനെയുള്ള വശങ്ങൾ നിരവധിയായ പരിശോധനകൾക്ക് ഇത്തരം വേദികളിലൂടെ വിധേയമാക്കപ്പെട്ടിട്ടുണ്ട്. ഇങ്ങനെ നിർമ്മിതബുദ്ധിയും പൊതുനന്മയും ആയി ബന്ധപ്പെട്ടിട്ടുള്ള വിവിധങ്ങളായ ഗവേഷണ മേഖലകളിൽ നിന്നും ആശയപരമായി ഏറെ അകലെയാണ് ‘നിർമ്മിതബുദ്ധി സുരക്ഷ’ എന്ന ഈ പുതിയ ആശയം എന്ന് വിലയിരുത്തേണ്ടിവരും.

നിർമ്മിതബുദ്ധി സുരക്ഷ എന്നാൽ എന്ത്?

നീതി, നൈതികത, സുതാര്യത എന്നിങ്ങനെയുള്ള ആശയധാരകൾ ഉള്ളപ്പോൾ ഇവയിൽ നിന്നും വിഭിന്നമായി ‘സുരക്ഷ’ എന്ന ആശയത്തിന്റെ പ്രസക്തിയെന്താണ്? ഇത് മനസ്സിലാക്കാനായി ‘സുരക്ഷ’ എന്നത് കൊണ്ട് എന്താണ് ഉദ്ദേശിക്കുന്നത് എന്ന് മനസ്സിലാക്കേണ്ടിവരും. വിക്കിപീഡിയയിൽ തിരഞ്ഞാൽ ‘നിർമ്മിതബുദ്ധി സുരക്ഷ’ എന്ന പേജിൽ വളരെ വിശാലമായ അർത്ഥത്തിൽ ഈ ആശയത്തെ നിർവചിച്ചിരിക്കുന്നത് കാണാം. പക്ഷെ, ഈ ലേഖനത്തിൽ നമ്മുടെ ശ്രദ്ധ 2023 ന്റെ അവസാനപാദത്തിലെ സമ്മേളനങ്ങളിലും തുടർന്നുള്ള ചർച്ചകളിലും നിറഞ്ഞു നിന്ന ഈ ആശയത്തിന്റെ രൂപഘടനയിലാണ്.

‘സുരക്ഷിതമായ നിർമ്മിതബുദ്ധി വേണോ’ എന്ന് ചോദിച്ചാൽ ആരെങ്കിലും ‘വേണ്ട, സുരക്ഷയില്ലാത്തത് മതി’ എന്ന് പറയാൻ സാധ്യതയില്ല. അങ്ങനെ ഒരു ബൈനറി ചിന്ത പ്രോത്സാഹിപ്പിക്കുന്ന ഒരു ലളിതഘടന സുരക്ഷിതത്വം എന്ന വാക്കിൽ ഉണ്ട് എന്ന് കാണാം. അതിൽ നിന്നും വിഭിന്നമായി ‘പക്ഷപാതിത്വമുള്ള നിർമ്മിതബുദ്ധി വേണോ’ എന്നോ ‘സുതാര്യമായ നിർമ്മിതബുദ്ധി വേണോ’ എന്നോ ചോദിച്ചാൽ ഒരാൾ ഒരുപക്ഷെ ‘എന്ത് പക്ഷപാതിത്വം ആണ് ഉദ്ദേശിക്കുന്നത്’ ‘എന്ത് തരത്തിൽ ഉള്ള സുതാര്യത ആണ് പരിഗണിക്കപ്പെടുന്നത്’ എന്നൊക്കെ മറുചോദ്യം ഉന്നയിക്കാൻ ആവും ഒരാൾക്ക് തോന്നുക.

ഇവിടെ നമുക്കുള്ള ഒരു പ്രശ്നം ഉച്ചകോടികളിലോ പ്രസ്താവനകളിലോ ഒന്നും തന്നെ ‘എന്താണ് നിർമ്മിതബുദ്ധി സുരക്ഷ’ എന്ന് കൃത്യമായി നിർവചിക്കാൻ മെനക്കെട്ടിട്ടില്ല എന്നതാണ്. അതുകൊണ്ടു തന്നെ ആ ആശയത്തെ വിലയിരുത്താൻ എന്താണ് അതുകൊണ്ടുദ്ദേശിക്കുന്നത് എന്ന് നാം തന്നെ അത്തരം സമ്മേളനങ്ങളിലെ രേഖകളിൽ നിന്നും മറ്റുമായി കണ്ടെത്തേണ്ടിയിരിക്കുന്നു! സുരക്ഷിതത്വം എന്ന ആശയത്തിന്റെ സോഫ്റ്റ്‌വെയർ മേഖലയിലെ ഏറ്റവും സാധാരണമായ വ്യാഖ്യാനം അപ്രതീക്ഷിതവും അനഭിലഷണീയവും ആയതെന്തെങ്കിലും സംഭവിക്കാത്തത് എന്ന് കരുതാവുന്നതാണ്. ഇത് മുൻനിർത്തി നമുക്ക് നിർമ്മിതബുദ്ധി സുരക്ഷ എന്ന ആശയത്തെ പരിശോധിക്കാം.

‘അപ്രതീക്ഷിതമായത്/അനഭിലഷണീയമായത് ഒഴിവാക്കുക’ എന്നത് സോഫ്റ്റ്‌വെയർ മേഖലയിലെ ടെസ്റ്റിംഗ് ഘട്ടത്തിലെ ഒരു പരിഗണനയാണ്. സോഫ്റ്റ്‌വെയർ ഡിസൈൻ ഘട്ടത്തിൽ അഭിസംബോധന ചെയ്യാൻ വിട്ടുപോയ അനഭിലഷണീയമായ പ്രവർത്തനങ്ങൾ ടെസ്റ്റിംഗ് ഘട്ടത്തിൽ കണ്ടെത്തുകയും പരിഹരിക്കുകയും ചെയ്യുന്നു. അനഭിലഷണീയം എന്നതിനെ ഇവിടെ ഒരു സാങ്കേതികമാത്രവ്യാഖ്യാനത്തിലാണ് കാണുന്നത്. ഒരു സോഫ്റ്റ്‌വെയറിൽ ഒരുപാട് ഡാറ്റ ലോഡ് ചെയ്യുമ്പോൾ അത് ക്രാഷ് ചെയ്തു എന്നിരിക്കട്ടെ – അത് അത്ര അപ്രതീക്ഷിതമായിരിക്കില്ലെങ്കിലും അനഭിലഷണീയമാണ്.  അപ്രതീക്ഷിതമായ പ്രവർത്തനരീതികൾ ഒഴിവാക്കുക എന്നതിന്റെ സോഫ്റ്റ്‌വെയർ ഡെവലപ്പ്മെന്റ്  മേഖലയിലെ അർത്ഥം ‘ഡീബഗ്’ (debug) ചെയ്യുക എന്നതാണ്. അതേസമയം ‘സ്ട്രെസ് ടെസ്റ്റിംഗ്’ മുതലായവ സോഫ്റ്റ്‌വെയറിന്റെ ആരോഗ്യവും കാര്യക്ഷമതയും (robustness) ഉറപ്പിക്കാനുള്ളതാണ്, അതിലൂടെ അനഭിലഷണീയമായ പ്രവർത്തനം പരിമിതപ്പെടുത്താം. കണിശമായി ഡീബഗ് ചെയ്യപ്പെട്ടു കഴിഞ്ഞാൽ നിർണ്ണയിക്കപ്പെട്ട രീതിയിൽ മാത്രമേ സോഫ്റ്റ്‌വെയർ പ്രവർത്തിക്കൂ എന്ന് നമുക്ക് ഏറെക്കുറെ ഉറപ്പിക്കാം. നല്ലവണ്ണം ടെസ്റ്റ് ചെയ്യപ്പെട്ടു കഴിഞ്ഞാൽ – ഡീബഗ്ഗിങ്ങും ടെസ്റ്റിംഗും പലപ്പോഴും ഇടകലർത്തിയാണ് ക്രമീകരിക്കുക – അനഭിലഷണീയമായ പ്രവർത്തനങ്ങൾ പരമാവധി ഒഴിവാക്കാനും കഴിയും. പക്ഷെ, നിർമ്മിതബുദ്ധി സുരക്ഷ എന്നതിനെ കേവലം – ഇതിനോടകം സോഫ്റ്റ്‌വെയർ ടെസ്റ്റിംഗ്-ഡീബഗ്ഗിങ് മേഖലകളാൽ നിഷ്കർഷിക്കപ്പെട്ടിട്ടുള്ള – ഗുണനിലവാര പരിശോധന/നിയന്ത്രണം എന്ന് കാണുന്നത് ഒരു വല്ലാത്ത ചുരുക്കപ്പെടുത്തൽ ആവില്ലേ?

നമുക്ക് ഇതേ ദിശയിൽ ഒരൽപ്പം കൂടി സഞ്ചരിച്ചാൽ എത്താവുന്ന വ്യാഖ്യാനം മറ്റൊന്നാണ്: ‘ദുഷ്ടലാക്കുള്ളവർക്ക് അപ്രതീക്ഷിതമായ രീതിയിൽ പ്രവർത്തിപ്പിക്കാൻ സാധിക്കാതെയിരിക്കുക’ എന്നതാവുമോ സുരക്ഷ എന്നത് കൊണ്ടുദ്ദേശിക്കുന്നത്? ഹാക്കർമാരിൽ നിന്നും സുരക്ഷിതമാക്കുക എന്ന വിഷയം കൈകാര്യം ചെയ്യുന്ന സോഫ്റ്റ്‌വെയർ മേഖലയിൽ ഏറ്റവും പ്രധാനപ്പെട്ട ഒരു വിഷയം സൈബർസുരക്ഷ (cybersecurity) എന്നതാണ്. ഇവിടെ സുരക്ഷ എന്നത് കൊണ്ടുദ്ദേശിക്കുന്നത് security എന്നതിനെയാണ്. സോഫ്റ്റ്‌വെയർ മേഖലയിൽ സൈബർ സുരക്ഷയ്ക്കായി ഉപയോഗിക്കുന്ന ഒരു ക്രമീകരണമാണ് red teaming എന്നുള്ളത്. ഒരു സംഘം സോഫ്റ്റ്‌വെയർ ഡെവലപ്പർമാരെ red team എന്നടയാളപ്പെടുത്തുക എന്നതാണിവിടെ ചെയ്യുന്നത്. അവരുടെ ഉത്തരവാദിത്തം സോഫ്റ്റ്‌വെയറിനെ എങ്ങനെയെങ്കിലും ഹാക്ക് ചെയ്യുക എന്നതാണ്. അങ്ങനെ ചെയ്യപ്പെട്ടു കഴിഞ്ഞാൽ അവർ കണ്ടെത്തിയ ഹാക്കിങ് സാദ്ധ്യത അടയ്ക്കാനായി സോഫ്റ്റ്‌വെയർ വികസിപ്പിച്ചവരെ ഏൽപ്പിക്കാം. അതുകഴിഞ്ഞു വീണ്ടും red team-നെ വിന്യസിക്കുന്നു. ക്രമേണ red team പരാജയം സമ്മതിക്കേണ്ടിവരുമ്പോൾ സോഫ്റ്റ്‌വെയർ സുരക്ഷിതമാണെന്ന് കരുതാം. അമേരിക്കയിലെ നിർമ്മിതബുദ്ധി സുരക്ഷ ഇൻസ്റ്റിറ്റ്യൂട്ട് രൂപം കൊടുത്തിട്ടുള്ള വർക്കിംഗ് ഗ്രൂപ്പുകളിൽ red teaming-ഉം safety & security-ഉം ഉൾപ്പെടുന്നു എന്നത് ‘നിർമ്മിതബുദ്ധി സുരക്ഷ’ എന്ന ആശയത്തിൽ ഹാക്കർമാരിൽ നിന്നുള്ള സുരക്ഷയും ഉൾപ്പെടുന്നു എന്നതിലേക്ക് വിരൽ ചൂണ്ടുന്നു.

നിർമ്മിതബുദ്ധി സുരക്ഷ എന്നതുമായി ബന്ധപ്പെട്ട ചില ആലോചനകളിൽ കടന്നുവരുന്ന മറ്റൊരു വാക്കാണ് റിസ്ക് (risk) എന്നത്. കൂടുതലായും യൂറോപ്യൻ യൂണിയന്റെ ചർച്ചകളിലാണ് ഈ വ്യാഖ്യാനം ഉപയോഗിക്കപ്പെടുന്നതായി കാണുന്നത്. 2024 മാർച്ചിൽ ഐക്യരാഷ്ട്രസഭ അംഗീകരിച്ച നിർമ്മിതബുദ്ധി സുരക്ഷ പ്രമേയത്തിലും റിസ്ക് എന്നത് കടന്നുവരുന്നുണ്ട്. ഇതിനെ ‘സാധാരണ ഉപയോഗത്തിൽ അബദ്ധം പിണയാനുള്ള സാധ്യത കുറയ്ക്കുക’ എന്ന് വ്യാഖ്യാനിക്കാം (നേരത്തെ നാം പരിഗണിച്ചത് ഹാക്കർമാരിൽ നിന്നുള്ള സുരക്ഷയാണ്, അത് വേറെയാണ്, ഇവിടെ ഹാക്കർമാർ ഇല്ലാതെയുള്ള കാര്യമാണ് നാം പരിഗണിക്കുന്നത്). ഒരു പ്ലഗ്ഗിൽ എർത് പിൻ മുന്നോട്ടു ഉന്തിനിൽക്കുന്നതിനാൽ പ്ളഗ് കണക്ട് ചെയ്യുമ്പോൾ ഷോക്ക് അടിക്കാനുള്ള റിസ്ക് കുറയുന്നു. അതുപോലെ കാർ ഓടിത്തുടങ്ങുമ്പോൾ സീറ്റ് ബെൽറ്റ് ഇട്ടിട്ടില്ലെങ്കിൽ മുഴങ്ങുന്ന രീതിയിൽ അലാറം ക്രമീകരിച്ചിട്ടുണ്ടെങ്കിൽ ഡ്രൈവിങ്ങിലെ അപായസാധ്യത കുറയുന്നു. ഇങ്ങനെ നാം നിത്യേന മനുഷ്യരുടെ ഭൗതിക സുരക്ഷയുമായി ബന്ധപ്പെടുത്തി മനസ്സിലാക്കുന്ന റിസ്ക് എന്ന ആശയത്തിന് സോഫ്റ്റ്‌വെയർ മേഖലയിൽ എന്തെങ്കിലും സവിശേഷ പ്രാധാന്യം ഉണ്ടോ എന്നത് ചിന്തനീയമാണ്. കഴിഞ്ഞ വർഷങ്ങളിൽ സോഫ്റ്റ്‌വെയർ റിസ്‌കുമായി ബന്ധപ്പെട്ട ഒരു ചർച്ചയുണ്ടായത് ബോയിങ് വിമാനത്തിലെ അപകടം അതിലെ സോഫ്റ്റ്‌വെയർ പ്രവർത്തനത്തിലെ പിഴവ് മൂലമാണ് എന്ന നിരീക്ഷണത്തിലൂന്നിയാണ്. അവിടെയും ഒരു മെക്കാനിക്കൽ യന്ത്രവുമായി ബന്ധപ്പെട്ടാണ് സോഫ്റ്റ്‌വെയർ റിസ്ക് വരുന്നത്. റിസ്ക് എന്നതിന് മറ്റൊരു വ്യാഖ്യാനം ഉള്ളത് മാർക്കറ്റ് റിസ്ക് എന്ന രീതിയിലാവാം. ഒരു നിർമ്മിതബുദ്ധി സോഫ്റ്റ്‌വെയറിന്റെ സഹായത്തോടെ വിപണിയിൽ നിക്ഷേപം നടത്തിയാൽ സാമ്പത്തികനഷ്ടം ഉണ്ടാവുമോ എന്നതുൾപ്പടെയുള്ള സങ്കുചിതങ്ങളായ വ്യാഖ്യാനങ്ങളിലേക്കാണ് ആ ചിന്ത എത്തിച്ചേരുക. അതൊക്കെ വളരെ സങ്കുചിതങ്ങളായ ദിശകളാണെന്നു പറയാതെ വയ്യ. അതിലേക്ക് പോവേണ്ടതില്ല.

പറഞ്ഞുവരുമ്പോൾ സോഫ്റ്റ്‌വെയർ ടെസ്റ്റിംഗ്, സൈബർ സുരക്ഷ എന്നിങ്ങനെയുള്ള വ്യവസ്ഥാപിത മേഖലകൾ അഭിസംബോധന ചെയ്യാത്തതും കാമ്പുള്ളതും ആയ എന്തെങ്കിലും ഒരു ആശയം ഉൾക്കൊള്ളുന്നതാണ്  നിർമ്മിതബുദ്ധി സുരക്ഷ എന്ന് കരുതാൻ ഉള്ള എന്തെങ്കിലും തെളിവ് നമുക്കിന്നു ലഭ്യമല്ല എന്ന് തന്നെ വിലയിരുത്തേണ്ടിവരും. അങ്ങനെ വന്നാൽ അവതരിപ്പിക്കപ്പെടുമ്പോലെ സാമൂഹികനന്മയുടെ പുതിയ ഒരു മേഖല തുറക്കുന്ന ഒരു ആശയാവലിയായി ഇതിനെ കാണാൻ സാധിക്കില്ല തന്നെ.

ഈ ചർച്ചയുടെ ഗതിയിൽ നിന്നും വിഭിന്നമായി നിർമ്മിതബുദ്ധി സുരക്ഷയുമായി ബന്ധപ്പെട്ട ചില രേഖകളിൽ വളരെ വ്യാപ്തിയുള്ള ഭാഷയുടെ പ്രയോഗം ഉള്ളതായി കാണാം. ഉദാഹരണത്തിന് യു. കെ യിലെ നിർമ്മിതബുദ്ധി സുരക്ഷ ഇൻസ്റ്റിറ്റ്യൂട്ടിന്റെ നയരേഖയിൽ നിർമ്മിതബുദ്ധി മൂലം ‘നിരുത്തവാദപരമായ രീതിയിൽ വളരെ കുറച്ചു പേരിലേക്ക് അധികാരം കേന്ദ്രീകരിക്കപ്പെടുന്നു’ (concentrate unaccountable power into the hands of a few) എന്നും ‘മനുഷ്യർക്ക് ദ്രോഹം സൃഷ്ടിക്കുന്നു’ (harms to people) എന്നും പറയുന്നു. 2023 നിർമ്മിതബുദ്ധി ആഗോള പങ്കാളിത്ത ഉച്ചകോടിയിൽ (GPAI) അംഗീകരിച്ച പ്രമേയത്തിന്റെ ആദ്യഖണ്ഡികയിൽ തന്നെ ‘വിശ്വാസയോഗ്യമായതും ഉത്തരവാദപരവും സുസ്ഥിരമായതും മനുഷ്യകേന്ദ്രീകൃതവും ആയ നിർമ്മിതബുദ്ധിയുടെ ഉപയോഗം’ എന്ന് പറയുന്നുണ്ട്. പക്ഷെ, ഇത്തരം രേഖകളുടെയെല്ലാം പ്രവർത്തനപരമായ ഭാഗങ്ങളിൽ ഇത്തരം വ്യാപ്തിയുള്ള ഭാഷയുടെ പ്രയോഗം കാണുന്നുമില്ല. ഉദാഹരണത്തിന്, യു കെ നിർമ്മിതബുദ്ധി സുരക്ഷാ ഉച്ചകോടിയെ തുടർന്നിറക്കിയ പത്രക്കുറിപ്പിൽ ‘പ്ലാൻ’ ആയിട്ട് പറയുന്നത് മിക്കവാറും ടെസ്റ്റിംഗിനെക്കുറിച്ചാണ്. അതുകൊണ്ടു തന്നെ ഇത്തരം രേഖകളുടെ പ്രായോഗികതലത്തിലെ സ്വാധീനം വിലയിരുത്തുമ്പോൾ സങ്കുചിതമായതും നേരത്തെ ചർച്ച ചെയ്തതും ആയ സുരക്ഷയുടെ വ്യാഖ്യാനങ്ങൾക്ക് മാത്രമേ സ്ഥാനമുള്ളൂ എന്ന് തന്നെ പറയേണ്ടിവരും.

ഊബർ ആപ്പിൽ ഒരേ യാത്രയ്ക്ക് വ്യത്യസ്ത ഡ്രൈവർമാർക്ക് വ്യത്യസ്ത നിരക്കുകൾ നൽകുന്നു. സ്ക്രീൻഷോട്ട് rideshare guy എന്ന യൂട്യൂബ് ചാനലിൽ നിന്ന് https://www.youtube.com/watch?v=UADTiL3S67I

നിർമ്മിതബുദ്ധി സുരക്ഷ എന്നതിൽ പെടാത്തതെന്ത്?

ഒരു നിർമ്മിതബുദ്ധി സോഫ്റ്റ്‌വെയർ സുരക്ഷിതമാണെന്ന് കരുതുന്നതെപ്പോൾ എന്നതാണ് നാം ഇതുവരെ പരിശോധിച്ചത്. ഇനി മേൽപ്പറഞ്ഞ മാനദണ്ഡം അനുസരിച്ചു സുരക്ഷിതം എന്ന് അടയാളപ്പെടുത്താവുന്ന സോഫ്റ്റ്‌വെയറുകളിൽ അവശേഷിക്കുന്ന പ്രശ്നങ്ങൾ എന്തായിരിക്കും എന്ന് പരിശോധിക്കാം. നമുക്ക് അതിനായി ചില ഉദാഹരണങ്ങളിലൂടെ കണ്ണോടിക്കാം.

നാം ഒരു യാത്രയ്ക്കായി ഊബർ കാർ വിളിക്കുന്നു എന്ന് കരുതുക. നമ്മുടെ യാത്രയ്ക്ക് ഊബർ ഈടാക്കുന്നത് നാന്നൂറ് രൂപയാണെന്നിരിക്കട്ടെ. അതിന്റെ എന്ത് പങ്കാണ് ഡ്രൈവറിന് ഊബർ കൈമാറുന്നത്? ചിലപ്പോൾ മുന്നൂറ് രൂപയായിരിക്കാം. മറ്റുചിലപ്പോൾ ഇരുന്നൂറ്റിയമ്പത് ആയിരിക്കാം. ചിലപ്പോൾ മുന്നൂറ്റിയമ്പത് രൂപ പോലും ആവാം. ഇതൊക്കെ തീരുമാനിക്കുന്നത് ഊബർ ഉപയോഗിക്കുന്ന ഒരു നിർമ്മിതബുദ്ധി അൽഗോരിതമാണ്. അടുത്തിടെ Rideshare Guy എന്ന ഒരു ആക്ടിവിസ്റ്റ് ചെയ്ത ഒരു പരീക്ഷണത്തിൽ കണ്ടെത്തിയത് ഒരേ യാത്രയ്ക്ക് വ്യത്യസ്ത ഡ്രൈവർമാർക്ക് വ്യത്യസ്തമായ നിരക്കുകൾ ഊബറിന്റെ അൽഗോരിതം നൽകുന്നു എന്നാണ്; ചിത്രം കാണുക. ഇതിനെ തൊഴിൽ വിവേചനം എന്നാണ് വ്യാഖ്യാനിക്കേണ്ടത് എന്ന് ഒരു ലേഖനം വിലയിരുത്തുന്നു. ഒരേ ജോലിക്ക് ഒരേ കൂലി എന്നത് നീതിയുടെ മേഖലയിൽ പ്രധാനമായി കാണുന്ന ഒരു ആശയമാണ്. ആ അർത്ഥത്തിൽ ഊബറിന്റെ അൽഗോരിതം നടപ്പിലാക്കുന്നത് അനീതിയാണ്. എന്നാൽ ഈ അനീതി ‘നിർമ്മിതബുദ്ധി സുരക്ഷ’ എന്നതിൽ എവിടെ നിൽക്കുന്നു എന്നതാണ് നമ്മുടെ വിഷയം. അൽഗോരിതം ലക്ഷ്യമിടുന്നത് ഊബറിന്റെ വരുമാനം വർദ്ധിപ്പിക്കുക എന്നതായിരിക്കാം. ആ ലക്ഷ്യത്തിലേക്കുള്ള ഒരു പാതയാണ് ചിലർക്ക് കുറഞ്ഞ വേതനം നൽകുക എന്നത്. ഊബറിനെ സംബന്ധിച്ചിടത്തോളം അൽഗോരിതത്തിന്റെ ഈ സാങ്കേതിക പ്രവർത്തനം അപ്രതീക്ഷിതമോ അനഭിലഷണീയമോ അല്ല – രൂപകൽപന ചെയ്ത ഉദ്ദേശ്യലക്ഷ്യങ്ങളോട് ഏറ്റവും കൂടുതൽ ആത്മാർത്ഥത പുലർത്തുന്ന രീതിയിലാണ് അത് പ്രവർത്തിക്കുന്നത്. ഊബറിനല്ലാതെ ഈ അൽഗോരിതത്തിന്റെ സാങ്കേതിക പ്രവർത്തനം ആർക്കും അറിയുകയും ഇല്ല. അതുകൊണ്ടു തന്നെ നിർമ്മിതബുദ്ധി സുരക്ഷ എന്ന ആശയത്തിന്റെ വ്യാഖ്യാനത്തിൽ ഊബറിന്റെ അൽഗോരിതത്തിന്റെ ഈ വിവേചനപരമായ പ്രവർത്തനത്തെ തടയുന്ന ഒന്നും തന്നെയില്ല എന്ന് തന്നെ പറയേണ്ടിവരും. Rideshare Guy പോലെയുള്ള ആക്ടിവിസ്റ്റുകൾക്ക് കണ്ടെത്താൻ ആകാത്ത എന്തൊക്കെ തരം പ്രവർത്തനങ്ങൾ ആവും ഈ അൽഗോരിതം പരോക്ഷമായി നടപ്പിലാക്കുക എന്നത് നമുക്ക് അറിയാനും കഴിയില്ല എന്നത് മറ്റൊരു കാര്യം. ഇനി ഇതേ അൽഗോരിതത്തിന്റെ മറ്റൊരു തലം കൂടി പരിശോധിക്കാം. നാം കൊടുക്കുന്ന നാന്നൂറ് രൂപയിൽ മുന്നൂറ് രൂപ മാത്രം ഡ്രൈവർക്ക് കൈമാറുന്നത് എങ്ങനെയാണ് ന്യായമാവുക. നമുക്ക് സേവനം തരുന്നതിൽ ഏറ്റവും വലിയ പങ്ക് വഹിച്ച ഡ്രൈവറിൽനിന്ന് സേവനത്തിന്റെ നിരക്കിന്റെ കാൽ ഭാഗത്തോളം ‘അടിച്ചുമാറ്റുന്ന’ അൽഗോരിതം വ്യവസ്ഥയിലെ ന്യായമില്ലായ്മയെ അഭിസംബോധന ചെയ്യുന്ന ഒന്നും തന്നെ നിർമ്മിതബുദ്ധി സുരക്ഷ എന്ന ചിന്താധാരയിൽ ഇല്ല!

നമ്മുടെ രണ്ടാമത്തെ ഉദാഹരണം തൊഴിൽമേഖലയുടെ മറ്റൊരു ഭാഗത്ത് നിന്നാണ്. നാം ഒരു തൊഴിലിന് അപേക്ഷിക്കുമ്പോൾ പലപ്പോഴും നമ്മുടെ അപേക്ഷ ആദ്യം പരിഗണിക്കുന്നത് നിർമ്മിതബുദ്ധി ആണെന്ന് പറയാവുന്ന ഒരു കാലഘട്ടത്തിലേക്ക് നാം അടുക്കുകയാണ്. ഇങ്ങനെ ഒരു അൽഗോരിതം നിർമ്മിക്കാനായി ഉപയോഗിക്കുന്നത് പലപ്പോഴും പഴയ തൊഴിൽ അപേക്ഷകളാണ്. സാങ്കേതികമായി ഓരോ അൽഗോരിതം പ്രവർത്തിക്കുന്നത് ഓരോന്ന്  പോലെയായിരിക്കാം എങ്കിലും ഈ മേഖലയിൽ നിർമ്മിതബുദ്ധിയുടെ പ്രവർത്തനത്തിന്റെ ഒരു ഉപരിഘടന നമുക്ക് മനസ്സിലാക്കാൻ എളുപ്പമാണ്. നേരത്തെയുള്ള അപേക്ഷകളിൽ വിജയിച്ച അപേക്ഷകളോട് സാമ്യത പുലർത്തുന്ന അപേക്ഷകളെ ഷോർട്ട്ലിസ്റ്റ് ചെയ്യാൻ ഉള്ള പ്രേരണ ഈ അൽഗോരിതങ്ങളിൽ ഉൾച്ചേർന്നിട്ടുണ്ടാവും. അതുപോലെ നേരത്തെയുള്ള പരാജയപ്പെട്ട അപേക്ഷകളോട് സാമ്യതയുള്ളവയെ തഴയുകയും ചെയ്യാൻ ഇത്തരം അൽഗോരിതങ്ങൾ സ്വാഭാവികമായും താൽപര്യം കാണിക്കും. പുരുഷന്മാരെ കൂടുതലായി സെലക്ട് ചെയ്തു ചരിത്രമുള്ള ഒരു മേഖലയിൽ പുരുഷന്മാരുടെ അപേക്ഷകളിൽ ഉൾച്ചേർന്നിട്ടുള്ള ക്രമങ്ങളെ കൂടുതൽ പോസിറ്റീവ് ആയി കാണാൻ ഈ അൽഗോരിതങ്ങൾ ‘പഠിക്കും’. അങ്ങനെ അൽഗോരിതങ്ങളാൽ സ്ത്രീകൾ ഘടനാപരമായി തഴയപ്പെടുന്ന അവസ്ഥ വരുന്നത് തീർച്ചയായും ഒരു പുരോഗമനസമൂഹത്തിൽ നീതീകരിക്കാവുന്നതല്ല. എന്തിരുന്നാലും ഇവിടെയും ഊബറിന്റെ കാര്യത്തിൽ നിരീക്ഷിച്ചപോലെ തൊഴിലപേക്ഷകരെ ഷോർട്ട്ലിസ്റ്റ് ചെയ്യുന്ന അൽഗോരിതം ക്രമീകരിക്കപ്പെട്ട പോലെ തന്നെയാണ് പ്രവർത്തിക്കുന്നത്. അൽഗോരിതത്തിന്റെ സാങ്കേതികക്രമീകരണത്തെക്കുറിച്ചുള്ള അറിവിന്റെ വീക്ഷണകോണിൽ നിന്ന് നോക്കിയാൽ അതിന്റെ പ്രവർത്തനത്തിൽ അപ്രതീക്ഷിതമോ അനഭിലഷണീയമായതോ ഇല്ല എന്ന് കരുതേണ്ടിവരും. ഈ വിവേചനത്തെ അഭിസംബോധന ചെയ്യാനും നിർമ്മിതബുദ്ധി സുരക്ഷ എന്ന ആശയം അശക്തമാണ്.

നാം രണ്ടു മേഖലകൾ ആണ് പരിശോധിച്ചത് എങ്കിലും നിരവധിയായ മറ്റു മേഖലകളിലും സമാനമായ സ്ഥിതിവിശേഷമുണ്ട്. പൊലീസിങിൽ നിർമ്മിതബുദ്ധി ഉപയോഗിക്കുമ്പോൾ ന്യൂനപക്ഷങ്ങളെ കൂടുതലായി സംശയമുനയിൽ നിർത്തുന്ന സാഹചര്യം സംജാതമാവുന്നുണ്ട്. അതുപോലെ മെഡിക്കൽ മേഖലയിലെ നിർമ്മിതബുദ്ധി സാങ്കേതികവിദ്യകളിൽ പക്ഷപാതിത്വം ഉള്ളതായി കണ്ടെത്തിയിട്ടുണ്ട്. തൊഴിൽ മേഖലയിലും മറ്റും ഉള്ള മുതലാളിത്തത്തിൽ അധിഷ്ഠിതമായതോ സമൂഹത്തിൽ മറ്റു തരത്തിൽ ഉള്ളതോ – അതിപ്പോൾ സ്ത്രീവിരുദ്ധത, വംശീയത, ജാതീയത എന്നതൊക്കെയാവാം – ആയ ഘടനാപരമായ അനീതികളെ അഭിസംബോധന ചെയ്യാൻ കഴിയാത്ത ഒന്നായിട്ടാണ് ‘സുരക്ഷ’ എന്ന ആശയം വ്യാഖ്യാനിക്കപ്പെടുന്നത് എന്നത് ആശങ്കയുളവാക്കുന്നതാണ്.

‘നിർമ്മിതബുദ്ധി സുരക്ഷ’യുടെ പ്രത്യാഘാതം

നിർമ്മിതബുദ്ധി സുരക്ഷ എന്ന ആശയം അങ്ങനെ പരിമിതവും സങ്കുചിതവും ഘടനാപരമായ അസമത്വങ്ങൾ അഭിസംബോധന ചെയ്യാൻ അശക്തവും ആണെങ്കിൽ പോലും ‘ഒരു പടിയെങ്കിലും ആയില്ലേ’ എന്ന് കരുതാൻ ചിലർക്കെങ്കിലും തോന്നുന്നുണ്ടാവാം. ഇവിടെയാണ് ഈ ആശയത്തിന്റെ രാഷ്ട്രീയം പ്രസക്തമാവുന്നത്. ‘നിർമ്മിതബുദ്ധി സുരക്ഷ’ എന്ന ആശയത്തെ വിമർശനാത്മകമായി പരിശോധിക്കാനുള്ള സാങ്കേതികസാക്ഷരത പൊതുവിൽ ജനസാമാന്യത്തിൽ പരക്കെ ഉണ്ടാവാൻ സാധ്യത ഇല്ലെന്നു തന്നെ കരുതണം. അങ്ങനെയിരിക്കെ, സുരക്ഷിതമായ നിർമ്മിതബുദ്ധി എന്ന ഒരു ലേബൽ പേറിക്കൊണ്ട് നമ്മുടെ ഇടയിലേക്ക് വരുന്ന സാങ്കേതികവിദ്യകൾക്ക് ആ ലേബലിന്റെ ആകർഷണീയത മൂലം തന്നെ കൂടുതൽ സ്വീകാര്യത ലഭിക്കും എന്നത് വ്യക്തമാണ്.

അങ്ങനെ ഘടനാപരമായ അസമത്വങ്ങൾ അഭിസംബോധന ചെയ്യാതെ തന്നെ ഇത്തരം ഒരു വർദ്ധിച്ച സ്വീകാര്യത നിർമ്മിതബുദ്ധിക്ക് പ്രദാനം ചെയ്യുക എന്നതാവുമോ ‘നിർമ്മിതബുദ്ധി സുരക്ഷ’ മൂവ്മെന്റിന്റെ ആത്യന്തിക ലക്ഷ്യം. അങ്ങനെ വായിക്കുന്നത് ഒരു അതിവായന ആവില്ലേ എന്ന് ചിലർക്കെങ്കിലും തോന്നിയേക്കാം.

എന്നാൽ, ‘നിർമ്മിതബുദ്ധിയിലെ നൈതികത’ (AI ethics) എന്ന ഒരു മേഖല പാടെ ചെയ്യുന്നത് ഇങ്ങനെ ജനങ്ങൾക്ക് സ്വീകാര്യമായ മുഖംമൂടി സൃഷ്ടിക്കൽ ആണെന്ന് ‘നിർമ്മിത വെണ്മ’ (artificial whiteness) എന്ന പുസ്തകത്തിൽ രചയിതാവ് യാർഡിൻ കാറ്റ്സ് പറഞ്ഞുവെയ്ക്കുന്നുണ്ട്. അപ്പോൾ നിർമ്മിതബുദ്ധി നൈതികത എന്ന ഗവേഷണമേഖലയിൽ അഭിസംബോധന ചെയ്യുന്നതിനേക്കാൾ എത്രയോ ഉപരിതലസ്പർശിയായ ഘടനയുള്ള ‘നിർമ്മിതബുദ്ധി സുരക്ഷ’ എന്ന ആശയത്തെ അങ്ങനെ വായിക്കുന്നതിൽ തെറ്റില്ലെന്നും തോന്നാം.

ഘടനാപരമായ അസമത്വങ്ങളെ – ഊബറിന്റെയും തൊഴിലപേക്ഷയുടെയും കാര്യത്തിൽ നേരത്തെ കണ്ടപോലെ – ഊട്ടിയുറപ്പിക്കുന്ന നിർമ്മിതബുദ്ധി ‘സുരക്ഷിതം’ എന്ന ലേബലിൽ വിതരണം ചെയ്യപ്പെട്ടാൽ അത് തീർത്തും പ്രതിലോമകരം ആയിരിക്കും എന്ന് എടുത്തു പറയേണ്ട ആവശ്യം ഉണ്ടാവും എന്ന് തോന്നുന്നില്ല.

‘സുരക്ഷ’ എന്ന വാക്കിനെ ഘടനാപരമായ അസമത്വങ്ങൾ കൂടി ഉൾപ്പെടുത്തി കൂടുതൽ ആഴത്തിൽ വ്യാഖ്യാനിക്കുകയും അത്തരം വ്യാഖ്യാനങ്ങളോട് നീതി പുലർത്തുന്ന പ്രവർത്തനരീതികൾ അവലംബിക്കുകായും ചെയ്യുന്ന നിലയിലേക്ക് നിർമ്മിതബുദ്ധി സുരക്ഷ ചർച്ചകൾ മാറേണ്ടത് അനിവാര്യമാണ്. ഇത് കൂടാതെ നിർമ്മിതബുദ്ധി ഗവേഷണസമൂഹത്തിൽ ചർച്ചചെയ്യപ്പെട്ടിട്ടുള്ള നൈതികത, ഉത്തരവാദിത്തം സുസ്ഥിരത എന്നിങ്ങനെയുള്ള ആശയങ്ങളെയും ‘സുരക്ഷ’ എന്ന ആശയത്തിൽ കുടക്കീഴിൽ കൊണ്ടുവരേണ്ടതുണ്ട്.

AI and Society Journal എന്ന പ്രസിദ്ധീകരണത്തിൽ പ്രസിദ്ധീകരിച്ച ലേഖകന്റെ തന്നെ ‘AI Safety: Necessary, but insufficient and possibly problematic’ [ journal version: https://link.springer.com/article/10.1007/s00146-024-01899-y longer version: https://arxiv.org/abs/2403.17419 ] എന്ന ലേഖനത്തിലെ ചില ഭാഗങ്ങളുടെ വിപുലീകരിച്ച ഒരു പരിഭാഷയാണ് ഈ ലേഖനം.

സസൂക്ഷ്മം – പംക്തി ഇതുവരെ

പോഡ്കാസ്റ്റുകൾ


അനുബന്ധ വായനയ്ക്ക്

സാങ്കേതികവിദ്യയും സമൂഹവും

ലേഖനങ്ങൾ വായിക്കാം

Happy
Happy
0 %
Sad
Sad
0 %
Excited
Excited
0 %
Sleepy
Sleepy
0 %
Angry
Angry
0 %
Surprise
Surprise
100 %

Leave a Reply

Previous post 2024 ഏപ്രിൽ മാസത്തെ ആകാശം
Next post എന്താണ് കള്ളക്കടൽ പ്രതിഭാസം ?
Close