നിർമ്മിതബുദ്ധി: വെല്ലുവിളികൾ, സാമൂഹിക നിയന്ത്രണം
ഒക്ടോബർ 30-ന് അമേരിക്കൻ പ്രസിഡന്റ് ജോ ബൈഡൻ നിർമ്മിതബുദ്ധി (AI) സംബന്ധിച്ച ഒരു എക്സിക്യൂട്ടീവ് ഉത്തരവിൽ ഒപ്പു വെച്ചു. ഈ മേഖലയിൽ ഇന്നേവരെ ഉണ്ടായിട്ടുള്ള ഏറ്റവും നിർണായകമായ സർക്കാർ ഇടപെടലായിരുന്നു അത്.
ഒക്ടോബർ 30-ന് അമേരിക്കൻ പ്രസിഡന്റ് ജോ ബൈഡൻ നിർമ്മിതബുദ്ധി (AI) സംബന്ധിച്ച ഒരു എക്സിക്യൂട്ടീവ് ഉത്തരവിൽ ഒപ്പു വെച്ചു. ഈ മേഖലയിൽ ഇന്നേവരെ ഉണ്ടായിട്ടുള്ള ഏറ്റവും നിർണായകമായ സർക്കാർ ഇടപെടലായിരുന്നു അത്.
ഉത്തരവാദിത്വത്തോടെ നിർമ്മിതബുദ്ധി ഉപയോഗിക്കേണ്ടതിന്റെ പ്രാധാന്യം എടുത്തു പറയുന്നു ഈ ഉത്തരവ്. അതിനായില്ലെങ്കിൽ വിനാശകരമായ പ്രത്യാഘാതങ്ങളാണ് അത് സമൂഹത്തിൽ ഉണ്ടാക്കുക: വിവേചനങ്ങൾ, തട്ടിപ്പുകൾ, കുപ്രചരണങ്ങൾ തുടങ്ങിയ സാമൂഹ്യ വിപത്തുകൾ; വ്യാപകമായ തൊഴിൽനഷ്ടം; വിപണിയിലെ ആരോഗ്യകരമായ മത്സരങ്ങൾക്കുണ്ടാകുന്ന തടസങ്ങൾ; ദേശീയ സുരക്ഷയ്ക്കുള്ള വെല്ലുവിളികൾ.
ഭ്രമാത്മകമായ ഡിസ്റ്റോപ്പിയൻ ഭാവനകളിൽ അഭിരമിക്കുകയല്ല വൈറ്റ്ഹൌസ് ഇവിടെ. നിർമ്മിതബുദ്ധിയുടെ ആപൽക്കരമായ വശങ്ങളെ കുറിച്ചുള്ള ആശങ്കകൾ കഴിഞ്ഞ കുറച്ചു കാലമായി വ്യാപകമായി ഉയരുന്നുണ്ട്. ദോഷൈകദൃക്കുകളെന്ന് ആരോപിക്കാവുന്ന വിമർശകർ മാത്രമല്ല, ഈ സാങ്കേതികവിദ്യകൾ വികസിപ്പിച്ചെടുക്കുന്നതിൽ നിർണായകമായ പങ്കു വഹിച്ചുകൊണ്ടിരിക്കുന്ന വ്യവസായ പ്രമുഖരും ഗവേഷകരും വരെ അക്കൂട്ടത്തിലുണ്ട്. ഇത് ഈ മുന്നറിയിപ്പുകളുടെ ഗൗരവം വർധിപ്പിക്കുന്നു.
‘മുൻനിര എഐ മോഡലുകൾ‘ (Frontier AI models) എന്ന് വിളിക്കപ്പെടുന്ന നവീന സാങ്കേതികവിദ്യകളെ കൈകാര്യം ചെയ്യാൻ ഭരണകൂടത്തിന്റെ നിയന്ത്രണങ്ങൾ അനിവാര്യമാണ് എന്ന ഒരു ബോധ്യം ഈ ഇടപെടലുകൾ ഉണ്ടാക്കിയിട്ടുണ്ട്. ഇന്റർനെറ്റിൽ ലഭ്യമായിട്ടുള്ള കൂറ്റൻ വിവരശേഖരങ്ങൾ (Big Data) ഉപയോഗിച്ച് പരിശീലിപ്പിച്ചെടുക്കുന്ന ജിപിടിയും, ഡാൽ-ഇയും, ഗൂഗിളിന്റെ ബെർട്ടും പോലുള്ള നിർമ്മിതബുദ്ധി സോഫ്റ്റ്വെയറുകളുടെ ഉയർന്ന രൂപങ്ങളാണ് ‘മുൻനിര എഐ മോഡലുകൾ’.
ഇത്തരം ആശങ്കകളെ പങ്കുവെക്കുന്ന ഒന്നായി വേണം പ്രസിഡന്റ് ബൈഡന്റെ ഈ ഉത്തരവിനെ കാണാൻ. ഇതിലെ പ്രധാന നിബന്ധനകളിലൊന്ന്, പുതിയ എഐ സാങ്കേതികവിദ്യകൾ വികസിപ്പിക്കുന്നവർ അവരുടെ സുരക്ഷാ പരിശോധനാ ഫലങ്ങളും മറ്റു നിർണായക വിവരങ്ങളും സർക്കാരിന് കൈമാറണമെന്നതാണ്. 1950 ലെ ഡിഫൻസ് പ്രൊഡക്ഷൻ ആക്റ്റ് ഉപയോഗിച്ചാണ് “റെഡ് ടീമിംഗ്” എന്ന ഈ സമ്പ്രദായം യു എസ് ഗവൺമെന്റ് ഈ രംഗത്ത് നിർബന്ധമാക്കുന്നത്. കോവിഡ് മഹാമാരി, ബേബി ഫോർമുല ക്ഷാമം തുടങ്ങിയ രൂക്ഷമായ പ്രതിസന്ധികളെ നേരിടാനാണ് ഡിഫൻസ് പ്രൊഡക്ഷൻ ആക്റ്റ് അടുത്ത കാലത്ത് ഉപയോഗപെടുത്തിയിട്ടുള്ളത്. ഈ വസ്തുത നിർമ്മിതബുദ്ധി ഉയർത്തുന്ന വെല്ലുവിളികളെ എത്ര ഗൗരവകരമായാണ് വൈറ്റ്ഹൌസ് കാണുന്നതെന്ന് വ്യക്തമാക്കുന്നുണ്ട്.
നവംബർ 1, 2 തീയതികളിൽ ഇംഗ്ലണ്ടിലെ ബ്ലെച്ച്ലി പാർക്കിൽ നടന്ന എഐ ഉച്ചകോടിയും സമാനമായ ആശങ്കകൾ ഉയർത്തിയിട്ടുണ്ട്. അമേരിക്കയും, യൂറോപ്യൻ യൂണിയനും ഇന്ത്യയും ചൈനയും ഉൾപ്പെടെ 28 രാജ്യങ്ങളിൽ നിന്നുള്ള പ്രതിനിധികളാണ് അതിൽ പങ്കെടുത്തത്. ആ സമ്മേളനം അംഗീകരിച്ച “ബ്ലെച്ച്ലി പ്രഖ്യാപനം” (Bletchley Declaration) ഉയർന്ന ശേഷിയുള്ള പുതിയ എഐ സാങ്കേതികവിദ്യകളുടെ അപകടസാധ്യതകൾ കൈകാര്യം ചെയ്യുന്നതിന് ആഗോള കൂട്ടായ്മ ഉണ്ടാകേണ്ടതിന്റെ ആവശ്യം ഊന്നി പറഞ്ഞു,
ചാറ്റ്ജിപിടിയുടെ ആഘാതം
ഒരു വർഷം മുൻപ് ഓപ്പൺഎഐ പുറത്തിറക്കിയ ചാറ്റ്ജിപിടി ഉണ്ടാക്കിയ കോളിളക്കമാണ് നിർമ്മിതബുദ്ധിയെ ചൊല്ലി ഇപ്പോൾ നടക്കുന്ന ചർച്ചകളുടെ തുടക്കം. എഐ സാങ്കേതികവിദ്യ ഇത്രയും നാൾ കൊണ്ട് നേടിയെടുത്ത വിസ്മയാവഹവും അവിശ്വസനീയവും ആയ നേട്ടങ്ങളുടെ ഒരു നേർക്കാഴ്ച്ച ആയിരുന്നു ചാറ്റ്ജിപിടി. മനുഷൃരുമായി അർത്ഥവത്തായ സംഭാഷണങ്ങളിൽ ഏർപ്പെട്ടും പുതിയ രചനകൾ നടത്തിയും മനുഷ്യബുദ്ധിയെ വെല്ലുന്നുവെന്ന പ്രതീതി സൃഷ്ടിക്കാൻ അതിനായി.
നാളിതു വരെ ഒരു സോഫ്റ്റ്വെയറിനും ലഭിച്ചിട്ടില്ലാത്ത സ്വീകരണമാണ് ചാറ്റ്ജിപിടിക്ക് ലഭിച്ചത്. രണ്ടു മാസത്തിനുള്ളിൽ 100 ദശലക്ഷം പ്രതിമാസ സജീവ ഉപയോക്താക്കളെ ഉണ്ടാക്കാൻ അതിന് കഴിഞ്ഞു .
അതിന്റെ പല കുറ്റങ്ങളും പരിമിതികളും ആദ്യം തൊട്ടേ ഈ രംഗത്തെ വിദഗ്ദ്ധരടക്കം പലരും ചൂണ്ടികാട്ടിയിട്ടുണ്ട് എന്നത് നേരാണ്. അതേസമയം അത് തുറന്നിട്ട (മനുഷ്യർക്ക് ഗുണവും ദോഷവുമായേക്കാവുന്ന) സാധ്യതകളുടെ ലോകം നിർമ്മിതബുദ്ധി വിപ്ലവകരമായ ഒരു കുതിച്ചു ചാട്ടത്തിന്റെ വക്കിലാണെന്ന് ലോകത്തിനു കാട്ടികൊടുത്തു.
സാമൂഹ്യവും സാമ്പത്തികവും രാഷ്ട്രീയവും സാസ്ക്കാരികവും ആയ മാനുഷിക വ്യവഹാരങ്ങളുടെ സമസ്ത തലങ്ങളെയും ആഴത്തിൽ സ്വാധീനിക്കാനും മാറ്റിത്തീർക്കാനും വഴി തുറക്കുന്നുണ്ട് നിർമ്മിതബുദ്ധിയുടെ ഈ ഘട്ടം എന്ന് കാണാൻ എളുപ്പമായിരുന്നു. ആ അർത്ഥത്തിൽ ചാറ്റ്ജിപിടി നിർമ്മിതബുദ്ധിയുടെ ചരിത്രത്തിലെ ഒരു നിർണായകമായ വഴിത്തിരിവാണ്. ഓപ്പൺഎഐ അന്ന് അങ്ങിനെ കരുതിയിട്ടുണ്ടായിരിക്കണമെന്നില്ലെങ്കിലും.
നിർമ്മിതബുദ്ധിയിൽ അധീശത്വം കൈവരിക്കുന്നവർക്കായിരിക്കും നവസാങ്കേതികവിദ്യകളിൽ അധിഷ്ഠിതമായ വ്യവസായങ്ങളുടെ കടിഞ്ഞാണെന്ന് പെട്ടന്നുതന്നെ ഐടി ലോകം തിരിച്ചറിഞ്ഞു. ആർട്ടിഫിഷ്യൽ ന്യൂറൽ നെറ്റ്വർക്കുകൾ ഉപയോഗിച്ച് നിർമ്മിച്ചിട്ടുള്ള വലിയ ഭാഷാ മോഡലുകൾ (Large Language Models) ഉണ്ടാക്കിയെടുക്കുന്നതിൽ കഴിഞ്ഞ കുറേ കാലങ്ങളായി മുതൽ മുടക്കിയിട്ടുള്ളത് ചാറ്റ്ജിപിടി മാത്രമായിരുന്നില്ല. പക്ഷെ പല കാരണങ്ങൾ കൊണ്ട് ഇത്രയും വ്യാപകമായി സ്വീകാര്യത ലഭ്യമായ ഒരു സോഫ്റ്റ്വെയർ പുറത്തിറക്കാൻ അവസരമുണ്ടായത് അവർക്കാണെന്ന് മാത്രം.
ഓപ്പൺഎഐയിൽ മുതൽ മുടക്കിയിട്ടുള്ളവരിൽ പ്രധാനി മൈക്രോസോഫ്റ്റാണ്. ഈ രംഗത്ത് ആദ്യമെത്തുന്നവർക്കുള്ള മേൽക്കൈ അവർക്ക് കൈവന്നേക്കുമെന്ന ന്യായമായ ഭയം മറ്റു കമ്പനികളെ ധൃതി പിടിച്ച് വലിയ ഭാഷാ മോഡലുകളെ അധികരിച്ചുള്ള സോഫ്റ്റ്വെയറുകളും സേവനങ്ങളും പുറത്തിറക്കുന്നതിലേക്ക് നയിച്ചു. 2015 മുതൽ വികസിപ്പിച്ചു കൊണ്ടിരിക്കുന്ന LaMDA എന്ന ഭാഷാ മോഡലിനെ ആധാരമാക്കി ഗൂഗിൾ പുറത്തിറക്കിയ ബാർഡ് എന്ന ചാറ്റ്ബോട്ട് ഉദാഹരണം. ബിഗ് ടെക് എന്നറിയപ്പെടുന്ന അമേരിക്കയിലെ അഞ്ച് ഐടി ഭീമന്മാരിൽ മറ്റു മൂന്നു കമ്പനികളായ ഫേസ്ബുക്കിന്റെ ഉടമ മെറ്റയും, ആപ്പിളും, ആമസോണും, ചൈനയിലെ ഈ രംഗത്തെ പ്രമുഖരായ ബൈദുവും ടെൻസെന്റുമൊക്കെ ഈ രംഗത്ത് ഇന്ന് വൻതോതിലുള്ള മുതൽ മുടക്കാണ് നടത്തികൊണ്ടിരിക്കുന്നത്.
വൻകിട കമ്പനികളിൽ ഒതുങ്ങി നിൽക്കുന്നില്ല നിർമ്മിതബുദ്ധിയിൽ ആധിപത്യം നേടാനുള്ള ശ്രമങ്ങൾ. നിരവധി എഐ സ്റ്റാർട്ടപ്പുകളാണ് കഴിഞ്ഞ കുറച്ചു കാലത്തിനിടെ ലോകമെമ്പാടും ഉണ്ടായിട്ടുള്ളത്. ആഗോളതലത്തിലുള്ള സാമ്പത്തിക പ്രതിസന്ധി കാരണം ഐടി രംഗത്തെ സ്റ്റാർട്ടപ്പുകൾ ഫിനാൻസ് മൂലധനത്തെ ആകർഷിക്കുന്നതിൽ വലിയ ബുദ്ധിമുട്ടുകൾ നേരിടുന്ന ഒരു കാലമാണിത്. സ്റ്റാർട്ടപ്പുകളുടെ ഫണ്ടിംഗ് ശീതകാലം എന്ന് വിശേഷിക്കപ്പെടുന്ന ഈ മാന്ദ്യ കാലത്തുപോലും നിർമ്മിതബുദ്ധി മേഖലയിലെ പുതിയ കമ്പനികൾക്ക് ഈ സാമ്പത്തിക വർഷത്തെ മൂന്നാം പാദത്തിൽ 17.9 ബില്യൺ ഡോളർ നിക്ഷേപം ആകർഷിക്കാൻ കഴിഞ്ഞിട്ടുണ്ട് എന്ന് ബ്ലൂംബെർഗ് ഈയിടെ റിപ്പോർട്ട് ചെയ്തിരുന്നു.
വിപ്ലവകരമായ ഏതു സാങ്കേതികവിദ്യ രംഗത്തെത്തുമ്പോഴും അതുൾപ്പെടുന്ന വ്യവസായങ്ങൾക്കകത്തും പുറത്തും വലിയ ചലനങ്ങൾ ഉണ്ടാകും. എന്നാൽ നിർമ്മിതബുദ്ധിയുടെ കാര്യത്തിൽ ഇത്തവണ അത്ര പതിവില്ലാത്ത ഒരു കാര്യം കൂടി സംഭവിച്ചു. ഈ സാങ്കേതികവിദ്യകളുടെ വികസനത്തിലും ഗവേഷണത്തിലും ഏർപ്പെട്ടുകൊണ്ടിരിക്കുന്ന മുൻനിര കമ്പനികളുടെ തലവന്മാരടക്കം ഈ രംഗത്ത് പ്രവർത്തിക്കുന്ന നൂറുകണക്കിന് ഗവേഷകരും വിദഗ്ദ്ധരും ഇവയുടെ ആപത് സാധ്യതകളെ കുറിച്ചുള്ള ആശങ്കകൾ തുറന്നു പറഞ്ഞു മുന്നോട്ടു വന്നു.
പുതിയ സാങ്കേതികവിദ്യകളുടെ പ്രണേതാക്കളും പ്രയോക്താക്കളും അതിന്റെ വാഴ്ത്തുപാട്ടുകാരായി നിൽക്കുമ്പോൾ വലിയ വിമർശനങ്ങൾ ഉയർത്തുന്നവർ പുറമേ നിന്നുള്ളവരായിരിക്കുമെന്ന നടപ്പു രീതി ഇവിടെ തെറ്റി. ഇതായിരിക്കണം ആദ്യം സൂചിപ്പിച്ചതു പോലെ സർക്കാരുകളും മാധ്യമങ്ങളുമൊക്കെ ഈ വിമർശനങ്ങളെ ഇത്ര ഗൗരവത്തിൽ എടുക്കാൻ കാരണം.
സിംഗുലാരിറ്റി എന്ന പേടി
മനുഷ്യർ ചെയ്യുന്ന എല്ലാ കാര്യങ്ങളും അവരേക്കാൾ ഭംഗിയായി യന്ത്രങ്ങൾക്ക് ചെയ്യാൻ കഴിയുന്ന ഒരു ഘട്ടം വന്നാൽ എന്ത് സംഭവിക്കും? അത് സമൂഹത്തിലുണ്ടാക്കാനിടയുള്ള ദൂരവ്യാപകമായ പ്രത്യാഘാതങ്ങൾ എന്തായിരിക്കും? ഇത്തരം ആലോചനകളാണ് നിർമ്മിതബുദ്ധിയെ കുറിച്ചുള്ള ആശങ്കകളുടെ കാതൽ. കംപ്യൂട്ടറുകളുടെ ചരിത്രത്തോളം തന്നെ പഴക്കമുണ്ട് ഈ ചോദ്യങ്ങൾക്ക്.
ത്വരിത ഗതിയിലുള്ള സാങ്കേതിക പുരോഗതിയുടെ ഒരു ഘട്ടത്തിൽ സ്വയം നവീകരിക്കാൻ കെല്പുള്ള സങ്കീർണമായ യന്ത്രബുദ്ധി ഉണ്ടാകാനുള്ള സാധ്യത തള്ളിക്കളയാൻ ആകില്ലെന്ന് കരുതുന്നവരുണ്ട്. അന്ന് യന്ത്രബുദ്ധി മനുഷ്യ ബുദ്ധിയെ എല്ലാ അർത്ഥത്തിലും അതിലംഘിക്കും. മാനവരാശിയുടെ ചരിത്രത്തിലെ ഒരു തിരിച്ചു പോക്ക് സാധ്യമല്ലാത്ത ഒരു വഴിത്തിരിവായിരിക്കും അത്. ശാസ്ത്രജ്ഞർ ആ മുഹൂർത്തത്തെ സിംഗുലാരിറ്റി എന്നാണ് വിളിക്കുന്നത്. ആദ്യത്തെ ഡിജിറ്റൽ കംപ്യൂട്ടറുകളുടെ രൂപകല്പനയിൽ നിർണായകമായ പങ്കു വഹിച്ചിട്ടുള്ള ജോൺ ഫൊൺ ന്യൂമാനാണ് 1950-കളിൽ ഈ വിശേഷണം ആദ്യമായി ഉപയോഗിക്കുന്നത്.
സിംഗുലാരിറ്റി ശരിക്കും സംഭവിക്കുമോ എന്നത് ഇന്നും തർക്കവിഷയമാണ്. ബോധമെന്നും ബുദ്ധിയെന്നുമൊക്കെ പറയുമ്പോൾ ഉദ്ദേശിക്കുന്നത് എന്താണ് എന്നതുൾപ്പെടെ ദാർശനികവും ശാസ്ത്രീയവും ആയ നിരവധി ചോദ്യങ്ങൾ കൂടിക്കുഴഞ്ഞു കിടക്കുന്ന അതിസങ്കീർണമായ ഒരു സമസ്യയാണത്. അങ്ങിനെയൊരു ഘട്ടത്തിൽ എത്തിയിട്ടില്ലെങ്കിൽ പോലും, പ്രായോഗിക തലത്തിൽ അതിബുദ്ധിയുള്ള യന്ത്രങ്ങളുണ്ടാക്കുന്ന പ്രത്യാഘാതങ്ങൾ എന്തായിരിക്കുമെന്നത് അതീവ ഗൗരവമുള്ള ചോദ്യമാണ്.
യന്ത്രങ്ങൾ മനുഷ്യബുദ്ധിയാർജ്ജിക്കുന്നു എന്ന് പറയുമ്പോൾ എന്താണ് അർത്ഥമാക്കുന്നത്? അതിനൊരു ഉത്തരം അലൻ ട്യൂറിങ്ങിന്റേതായിരുന്നു. യന്ത്രത്തിന്റെ പ്രതികരണങ്ങളെ മനുഷ്യരുടേതിൽ നിന്ന് വേർതിരിച്ചറിയാൻ ഒക്കുന്നില്ലെങ്കിൽ അതിന് മനുഷ്യതുല്ല്യമായ ബുദ്ധിയുണ്ട് എന്ന് അദ്ദേഹം വാദിച്ചു. മനുഷ്യരും യന്ത്രങ്ങളും തമ്മിലുള്ള ആശയവിനിമയത്തിന്റെ ‘സ്വാഭാവികത’ ബുദ്ധിയുടെ ഏറ്റവും പ്രധാനപ്പെട്ട മാനദണ്ഡമായി കാണുന്ന ഈ പരീക്ഷയെ ട്യൂറിംഗ് ടെസ്റ്റ് (Turing Test) എന്നാണ് കമ്പ്യൂട്ടർ സയൻസ് വിളിക്കുന്നത്.
നിർമ്മിതബുദ്ധി ഉണ്ടാക്കിയതെന്ന് തിരിച്ചറിയാൻ പറ്റാത്ത അത്ര സ്വാഭാവികവും യുക്തിപൂർവ്വവുമായ പ്രതികരണങ്ങളും പാഠങ്ങളും (texts) പടങ്ങളും വിഡിയോകളുമൊക്കെ ചാറ്റ്ജിപിടി പോലുള്ള Generative AI ക്ക് ഉണ്ടാക്കാനൊക്കുന്നു എന്നത് അവ ഉയർത്തുന്ന ഏറ്റവും വലിയ ഭീഷണികളിൽ ഒന്നാണ്. അക്കാഡമിക് രംഗത്തെ plagiarism തൊട്ട് രാഷ്ട്രീയമടക്കമുള്ള മാനുഷികവ്യവഹാരങ്ങളിൽ ഏറ്റവും നിഷേധാത്മകമായ സ്വാധീനം ചെലുത്തുന്ന കള്ള വാർത്തകൾ വരെ നീണ്ടു കിടക്കുന്നു ആ ഭീഷണികൾ.
നിർമ്മിതബുദ്ധിയുടെ ആദിരൂപങ്ങൾ സൃഷ്ടിച്ച മനുഷ്യഭാഷണങ്ങളുടെ ദുർബലമായ അനുകരണങ്ങൾ പോലും വ്യക്തികളെ കബളിപ്പിക്കാൻ പ്രാപ്തമായിരുന്നു എന്നതിന് ലോകത്തെ ആദ്യത്തെ ചാറ്റ്ബോട്ട് എന്നറിയപ്പെടുന്ന എലൈസയുടെ കർത്താവായ ജർമ്മൻ-അമേരിക്കൻ ശാസ്ത്രജ്ഞൻ ജോസഫ് വെയ്സൻബോമിന്റെ അനുഭവം നമുക്ക് മുന്നിലുണ്ട്. 1966 ലാണ് നിർമ്മിതബുദ്ധിയുടെ ആദ്യകാല പ്രണേതാക്കളിൽ ഒരാളായിരുന്ന വെയ്സൻബോം ഈ ചാറ്റ്ബോട്ട് ഉണ്ടാക്കുന്നത്. ഒരു സൈക്കോതെറാപ്പിസ്റ്റിനെപോലെ വ്യക്തികളുമായി സംഭാഷണത്തിൽ ഏർപ്പെടാൻ കഴിയുന്ന ഒരു സോഫ്റ്റ്വെയറായിരുന്നു എലൈസ. അന്ന് നിർമ്മിതബുദ്ധിയുടെ അടിസ്ഥാന ആശയങ്ങൾ രൂപപ്പെട്ട് വരുന്നേ ഉണ്ടായിരുന്നുള്ളൂ. അതുകൊണ്ടുതന്നെ തികച്ചും ഉപരിപ്ലവമായിരുന്ന വർത്തമാനങ്ങളിൽ ഏർപ്പെടാനേ അതിന് കഴിയുമായിരുന്നുള്ളൂ. എന്നിട്ടു പോലും പലർക്കും തങ്ങൾ ഒരു കംപ്യൂട്ടറുമായാണ് ആശയവിനിമയത്തിന് ശ്രമിക്കുന്നതെന്ന് മനസ്സിലാക്കാനായില്ല.
ഈ അനുഭവങ്ങൾ നിർമ്മിതബുദ്ധിയുടെ നിശിത വിമർശകനാക്കി വെയ്സൻബോമിനെ മാറ്റി. 1976 ൽ അദ്ദേഹം പ്രസിദ്ധീകരിച്ച “Computer Power and Human Reason: From Judgement to Calculation” എന്ന പുസ്തകത്തിലെ നിഗമനങ്ങളുടെ ചുരുക്കം മനുഷ്യനും യന്ത്രവും അടിസ്ഥാനപരമായി വ്യത്യാസമുള്ള രണ്ടു സത്തകളായതിനാൽ കമ്പ്യൂട്ടറുകൾക്ക് ചെയ്യാൻ പറ്റുമെങ്കിലും അവയെ കൊണ്ട് ചെയ്യിക്കാൻ പാടില്ലാത്ത ചില ജോലികളുണ്ട് എന്നതായിരുന്നു. മനുഷ്യർക്കുള്ള വിവേചനശക്തി പോലുള്ള കഴിവുകൾ യന്ത്രങ്ങൾക്ക് ഉണ്ടാക്കിയെടുക്കാനാകില്ല. നിർമ്മിത ബുദ്ധിയെകുറിച്ചുള്ള വിമർശങ്ങളിൽ നിരന്തരമായി ആവർത്തിച്ചു കൊണ്ടിരിക്കുന്ന, ഇന്നും പ്രസക്തി നഷ്ടമായിട്ടില്ലാത്ത, ഒരു വാദമാണിത്.
ഭാഷാ മോഡലുകൾ: സാധ്യതകളും പരിമിതികളും
എലൈസയിൽ നിന്നും എത്രയോ മുന്നോട്ട് പോയിരിക്കുന്നു ഇന്ന് നിർമ്മിതബുദ്ധി. അതിന് വഴിതെളിയിച്ചത് ഇന്റർനെറ്റ് സാമൂഹ്യ ജീവിതത്തിന്റെ എല്ലാ തലങ്ങളെയും സ്പർശിക്കുന്ന ഒരു സാങ്കേതികവിദ്യയായി പരിണമിച്ചതായിരുന്നു. ഇന്റർനെറ്റിന്റെ പല ഭാഗങ്ങളിലായി സമാഹരിക്കപ്പെടുന്ന കൂറ്റൻ വിവര ശേഖരങ്ങൾക്ക് പുതിയ ഒരു ഉപയോഗം കണ്ടെത്തി ഗവേഷകർ. മെഷീൻ ലേർണിംഗ്, ന്യൂറൽ നെറ്റ്വർക്കുകൾ തുടങ്ങിയ സാങ്കേതികവിദ്യകളുപയോഗിച്ച് വികസിപ്പിച്ചെടുത്ത ഭാഷാ മോഡലുകൾ പരിശീലനത്തിനായി ആശ്രയിക്കുന്നത് ഈ വിവര ശേഖരങ്ങളെയാണ്.
അർത്ഥമറിഞ്ഞല്ല ഭാഷാ മോഡലുകൾ പുതിയ പാഠങ്ങൾ ഉണ്ടാക്കുന്നത്. പല ഗവേഷകരും ചൂണ്ടിക്കാട്ടിയിട്ടുള്ളത് പോലെ പാഠത്തിന്റെ ആശയവിനിമയ ഉദ്ദേശ്യം (communicative intent) അറിയില്ലെങ്കിൽ പോലും ‘അർത്ഥവത്തായ’ രചനകൾ ഉണ്ടാക്കാൻ അവയ്ക്കാകുന്നു. മനുഷ്യന്റെ അറിവും ബോധവും വിവേചന ശക്തിയും ഈ പാഠങ്ങളിലുണ്ടാകില്ല. ഭാഷാമോഡലുകളുടെ മാത്രമല്ല ഇന്ന് നിലവിലുള്ള എല്ലാ തരം Generative AI സാങ്കേതികവിദ്യയുടെയും അടിസ്ഥാനപരമായ ഒരു പരിമിതിയാണിത്. അതുകൊണ്ടു തന്നെയാണ് ഈ രചനകൾ ആപൽക്കരമായി തീരുന്നതും.
ഇതിനോട് ചേർത്ത് വായിക്കേണ്ടുന്ന ഒന്നാണ് പുതിയ ഭാഷാ മോഡലുകൾ ഉണ്ടാക്കുന്ന രചനകളിലെ ലിംഗപരവും വംശീയവും വർഗ്ഗപരവുമായ വിവേചനങ്ങൾ, വിഷലിപ്തമായ ഭാഷ തുടങ്ങിയ കാര്യങ്ങളെക്കുറിച്ചുള്ള വ്യാപകമായ പരാതികൾ. Reinforcement learning പോലുള്ള മാർഗങ്ങൾ ഉപയോഗിച്ച് ഈ സോഫ്റ്റ്വെയറുകൾ ഈ പ്രശ്നങ്ങളെ പരിഹരിക്കാൻ ശ്രമിക്കുന്നുണ്ടെങ്കിലും അത് പൂർണമായി ഫലപ്രദമായിട്ടില്ല.
അതിന്റെ പ്രധാന കാരണങ്ങളിലൊന്ന് ഈ ഭാഷാമോഡലുകളെ പരിശീലിപ്പിക്കുന്നതിനായി എടുക്കുന്ന പാഠങ്ങളിൽ തന്നെ അന്തർലീനമായിരിക്കുന്ന പക്ഷപാതിത്വങ്ങളാണ് (bias). ഈ പാഠങ്ങൾ ഉണ്ടാകുന്ന സമൂഹങ്ങളിലെ അസമത്വങ്ങളും അസന്തുലിതമായ അധികാര ഘടനകളും അനിവാര്യമായും അവയിൽ പ്രതിഫലിക്കുന്നതു കൊണ്ടാണ് ഇത് സംഭവിക്കുന്നത്. ഉള്ളടക്കത്തിൽ മാത്രമല്ല ഭാഷാ ശൈലിയിലും പ്രയോഗത്തിലും പോലും സമൂഹത്തിൽ മേൽക്കോയ്മ ചെലുത്തുന്ന ലോകവീക്ഷണങ്ങളുടെ സ്വാധീനം ഉണ്ടായെന്നിരിക്കും.
കുറച്ചു കാലം മുൻപ് വരെ ഇത്തരം വിമർശനങ്ങളെ അവഗണിക്കാനോ തമസ്ക്കരിക്കാനോ ആണ് ഈ രംഗത്ത് മുൻനിരയിലുള്ള കമ്പനികൾ ശ്രമിച്ചിരുന്നത്. 2021 ൽ ഗൂഗിൾ എത്തിക്കൽ ആർട്ടിഫിഷ്യൽ ഇന്റലിജൻസ് ടീമിലെ പ്രധാന ശാസ്ത്രജ്ഞരായ ടിംനിറ്റ് ഗെബ്രുവിനെയും മാർഗരറ്റ് മിച്ചലിനെയും പുറത്താക്കിയത് ഇവിടെ ഓർക്കാം. ഗെബ്രുവും മൂന്ന് അക്കാദമിക് ഗവേഷകരും ചേർന്ന് പ്രസിദ്ധീകരിച്ച “On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?” എന്ന ഗവേഷണ പ്രബന്ധം ആയിരുന്നു പ്രകോപനം.
ഇന്ന് ഈ സ്ഥിതിക്ക് മാറ്റം വന്നിരിക്കുന്നു. ഗൂഗിളടക്കമുള്ള ഈ രംഗത്തെ മുൻനിര കമ്പനികൾ ഇപ്പോൾ നിർമ്മിതബുദ്ധിയുടെ ദൂഷ്യഫലങ്ങളെ എടുത്തുകാട്ടാൻ നിർബന്ധിതരാകുക മാത്രമല്ല ഭരണകൂടത്തിന്റെ നിയന്ത്രണങ്ങൾ സ്വാഗതം ചെയ്യുന്നു കൂടിയുണ്ട്.
നിർമ്മിതബുദ്ധിയുടെ സ്വയംവിമർശന കാലം
ചാറ്റ്ജിപിടി ഉണ്ടാക്കിയ അമിതാവേശത്തിന് എതിരായ ആദ്യത്തെ വലിയ പ്രതികരണം ഈ വർഷം മാർച്ചിൽ എഐയിൽ വലിയ സംഭാവനകൾ നലകിയിട്ടുള്ള ഗവേഷകരായ യോഷ്വ ബെൻഗിയോ, സ്റ്റുവർട്ട് റസ്സൽ, ടെസ്ലയുടെ സിഇഒ എലോൺ മസ്ക്,, ആപ്പിളിന്റെ സഹസ്ഥാപകൻ സ്റ്റീവ് വോസ്നിയാക്, പ്രമുഖ ഗ്രന്ഥകർത്താവ് യുവാൽ നോഹ ഹരാരി എന്നിവരുൾപ്പെടെ നൂറു കണക്കിന് വ്യവസായ പ്രമുഖരും, ഗവേഷകരും ഒപ്പിട്ട തുറന്ന കത്തായിരുന്നു.
കൃത്യമായ ആസൂത്രണത്തിന്റെയും അഭാവത്തിൽ ഇപ്പോൾ നടക്കുന്ന വേഗത്തിൽ എഐ ഗവേഷണങ്ങൾ തുടർന്നാൽ കാര്യങ്ങൾ കൈവിട്ടു പോകുമെന്നും അതു കൊണ്ട് GPT-4 നേക്കാൾ ശക്തമായ എഐ സിസ്റ്റങ്ങളുടെ പരിശീലനം കുറഞ്ഞത് ആറ് മാസത്തേക്കെങ്കിലും താൽക്കാലികമായി നിർത്തിവെക്കണമെന്നുമായിരുന്നു ഈ കത്തിന്റെ ചുരുക്കം. ഇങ്ങനെയൊരു താൽക്കാലിക വിരാമം വേഗത്തിൽ നടപ്പിലാക്കാൻ കഴിയുന്നില്ലെങ്കിൽ, സർക്കാരുകൾ ഇടപെട്ട് മൊറട്ടോറിയം ഏർപ്പെടുത്തണം എന്നും ഈ കത്ത് ആവശ്യപ്പെട്ടു.
ടിംനിറ്റ് ഗെബ്രു ഈ ക്യാമ്പയിനിനെ കുറിച്ച് നടത്തിയ ഒരു നിരീക്ഷണം പ്രസക്തമാണ്: സയൻസ് ഫിക്ഷനുകൾ ഭാവന ചെയ്യുന്ന തരത്തിലുള്ള ഭാവിയിലെപ്പോഴെങ്കിലും ഉണ്ടാകാനിടയുള്ള ഡിസ്റ്റോപ്പിയൻ സാഹചര്യങ്ങളെ മുൻനിർത്തിയാണ് ഇത് സംഘടിപ്പിച്ചിരിക്കുന്നത്. അതുകൊണ്ട് ഭാഷാ മോഡലുകളിൽ അന്തർലീനമായ പക്ഷപാതിത്വങ്ങൾ (bias), അവയുടെ ഊർജ്ജാവശ്യങ്ങൾ ഉണ്ടാക്കുന്ന പാരിസ്ഥിതികാഘാതം തുടങ്ങിയ വർത്തമാനകാല നിർമ്മിതബുദ്ധിയുടെ യഥാർത്ഥ പ്രശ്നങ്ങൾ അവഗണിക്കപ്പെടുന്നു. ഗെബ്രുവിന്റെ ഈ അഭിപ്രായം പ്രസക്തമാണ്. നിർമ്മിതബുദ്ധി ഉയർത്തുന്ന വെല്ലുവിളികളിലേക്ക് പൊതുശ്രദ്ധ ക്ഷണിക്കാൻ ഈ കത്ത് പര്യാപ്തമായി.
ഓപ്പൺഎഐ സിഇഒ സാം ആൾട്ട്മാൻ ആ കത്തിനോടുള്ള വിയോജിപ്പ് പ്രകടിപ്പിച്ചു. അതിന്റെ ഉള്ളടക്കത്തോട് ഭാഗികമായി യോജിക്കുമ്പോൾ തന്നെ, എങ്ങിനെയാണ് ഇങ്ങനെയൊരു മൊറട്ടോറിയം നടപ്പിലാക്കേണ്ടത് എന്നതിന്റെ സൂക്ഷ്മമായ വിശദാംശങ്ങൾ വ്യക്തമല്ലെന്ന് അദ്ദേഹം പറഞ്ഞു.
നിർമ്മിതബുദ്ധിയുടെ ഗോഡ് ഫാദർ എന്നറിയപ്പെടുന്ന ഡോ. ജെഫ്രി ഹിന്റൺ മെയ് മാസം ആദ്യം രാജി വെച്ചതായിരുന്നു അടുത്ത സംഭവം. ആർട്ടിഫിഷ്യൽ ന്യൂറൽ നെറ്റ്വർക്കുകളുടെ വികസനത്തിൽ നിർണായകമായ സംഭാവനകൾ നൽകിയ ഹിന്റൺ രാജി വെച്ചത് തെറ്റായ വിവരങ്ങളുടെ കുത്തൊഴുക്ക്, തൊഴിലില്ലായ്മ തുടങ്ങി ഈ സാങ്കേതികവിദ്യകൾ കാരണമാക്കിയേക്കാവുന്ന “അസ്തിത്വപരമായ അപകടസാധ്യതകളെ” എടുത്തു പറഞ്ഞു കൊണ്ടായിരുന്നു. വർഷങ്ങൾക്കു മുൻപ് വെയ്സൻബോമിന് ഉണ്ടായ തിരിച്ചറിവിന് സമാനമായിരുന്നു ആ രാജി.
അധികനാൾ കഴിയും മുമ്പേ ഐയുടെ വിനാശകരമായ പ്രത്യാഘാതങ്ങളെ കുറിച്ച് മുന്നറിയിപ്പ് നൽകുന്ന ഒരു പ്രസ്താവനയുമായി സാം ആൾട്ട്മാൻ അടക്കമുള്ള നിർമ്മിതബുദ്ധിയുമായി ബന്ധപ്പെട്ട സാങ്കേതികവിദ്യകളുടെ വികസനത്തിലും ഗവേഷണത്തിലും ഏർപ്പെട്ടുകൊണ്ടിരിക്കുന്ന മുൻനിര കമ്പനികളുടെ തലവന്മാരടക്കം ഈ രംഗത്ത് പ്രവർത്തിക്കുന്ന നൂറുകണക്കിന് ഗവേഷകരും എൻജിനീയര്മാരും രംഗത്തെത്തി. ഒരൊറ്റ വരിയായിരുന്നു ആ പ്രസ്താവനയുടെ ഉള്ളടക്കം:
“എഐ മൂലമുള്ള വംശനാശത്തിനുള്ള സാധ്യതകൾ ലഘൂകരിക്കുന്നത് മഹാമാരികളും ആണവയുദ്ധവും പോലെയുള്ള മറ്റ് സാമൂഹ്യ വിപത്തുകളെ നേരിടുന്നത് പോലെ തന്നെ ആഗോള മുൻഗണന അർഹിക്കുന്നുണ്ട്.”
മുൻനിര നിർമ്മിതബുദ്ധി മോഡലുകളുടെ സാമൂഹ്യനിയന്ത്രണം
ഇതിനെ തുടർന്നാണ് ആമസോൺ, ആന്ത്രോപിക്, ഗൂഗിൾ, ഇൻഫ്ലെക്ഷൻ, മെറ്റ, മൈക്രോസോഫ്റ്റ്, ഓപ്പൺഎഐ എന്നീ ഏഴ് കമ്പനികൾ സുരക്ഷിതമായ എഐ ഉൽപ്പന്നങ്ങൾ വികസിപ്പിക്കുന്നതിന് വേണ്ട കാര്യങ്ങൾ സ്വമേധയാ ചെയ്യാമെന്ന ഉറപ്പ് അമേരിക്കൻ പ്രസിഡന്റ് ജോ ബൈഡനു നൽകിയത്. പക്ഷെ കുറച്ചു കമ്പനികളുടെ സ്വയംനിയന്ത്രണം കൊണ്ട് മാത്രം പരിഹരിക്കാവുന്ന വെല്ലുവിളികളല്ല നിർമ്മിതബുദ്ധിയുടേത്. വിപണിയിലെ ആധിപത്യത്തിന് വേണ്ടി കമ്പനികൾ കടുത്ത മത്സരത്തിലേർപ്പെടുന്ന ഒരു ആഗോള സമ്പദ്വ്യവസ്ഥയിൽ പ്രത്യേകിച്ചും.
രണ്ടു മാസങ്ങൾക്ക് മുൻപ് ഈ കമ്പനികളിലെ പ്രതിനിധികൾ ഉൾപ്പെടെയുള്ള ഒരു ഗവേഷക സംഘം ‘മുൻനിര എഐ മോഡലുകളുടെ’ അപകടസാധ്യതകൾ കൈകാര്യം ചെയ്യുന്നതിനാവശ്യമായ നിയന്ത്രണങ്ങളെ പറ്റി ഒരു പഠനം പ്രസിദ്ധീകരിച്ചിരുന്നു. അതിൽ പറയുന്നത് ഈ മോഡലുകളിൽ ശക്തമായ നിയന്ത്രണ സംവിധാനങ്ങൾ ആവശ്യമാകുന്നത് പ്രധാനമായും മൂന്നു കാരണങ്ങളാലാണ് എന്നാണ്.
അതിസങ്കീർണമാണ് ഇത്തരം മോഡലുകൾ. അതിനാൽ അവയിൽ ഒളിഞ്ഞു കിടക്കുന്ന അപകടകരമായ കഴിവുകളെ കണ്ടെത്തുക ദുഷ്ക്കരമാകുന്നു എന്നതാണ് ഒന്നാമത്തെ കാര്യം. രണ്ടാമതായി, വ്യാപകമായി വിന്യസിക്കാനിടയുള്ളതുകൊണ്ട് എഐ മോഡലുകളുടെ ദുരുപയോഗം ഫലപ്രദമായി തടയുക എളുപ്പമല്ല. മാത്രമല്ല, ഇത്തരം മോഡലുകൾ അതിവേഗം പെരുകി വികസിക്കാനുള്ള സാധ്യത കൂടുതലായതിനാൽ പഴയ മോഡലുകളിലെ സുരക്ഷാസംവിധാനങ്ങൾ പുതിയവയിൽ ഫലപ്രദം ആയിരിക്കണമെന്നുമില്ല.
വ്യവസായങ്ങളുടെ സ്വയംനിയന്ത്രണം പ്രധാനപ്പെട്ട ഒരു ആദ്യപടിയാണെങ്കിലും അതിന്റെ മാനദണ്ഡങ്ങൾക്ക് രൂപം കൊടുക്കാനും, നടപ്പിലാക്കുന്നുണ്ടെന്ന് ഉറപ്പാക്കുന്നതിനും സർക്കാർ ഇടപെടലുകളും പൊതു സംവാദങ്ങളും ആവശ്യമാണെന്നാണ് ആ റിപ്പോർട്ട് പറയുന്നത്. പൊതുനയ രൂപീകരണ വേദികളിൽ സ്വാധീനം ചെലുത്താനായിട്ടുണ്ട് ഈ റിപ്പോർട്ടിന്.
പൊതുവേ ഭരണകൂടത്തിന്റെ ഇടപെടൽ ആഗ്രഹിക്കാത്തവരാണ് വൻകമ്പനികൾ. വിപണിയുടെ അദൃശ്യകരങ്ങളായിരിക്കണം സമ്പദ്വ്യവസ്ഥയെ നിയന്ത്രിക്കേണ്ടത് എന്നാണ് കമ്പോള മുതലാളിത്തത്തിന്റെ അടിസ്ഥാന പ്രമാണം. പക്ഷെ നിർമ്മിതബുദ്ധിയുടെ അവിശ്വസനീയമായ വളർച്ച ഒരു പണ്ടോറയുടെ പെട്ടി ആയേക്കാമെന്ന് ഈ രംഗത്തുള്ളവർ ന്യായമായും ഭയക്കുന്നുണ്ട്. അതുകൊണ്ടാണ് ഈ മേഖലയിൽ നിയന്ത്രണങ്ങളുണ്ടാകുന്നത് സ്വാഗതാർഹമായി അവർ കരുതുന്നതും അതിനു വേണ്ടി സർക്കാരുമായി സഹകരിക്കാൻ തയ്യാറാകുന്നതും. തങ്ങളുടെ ബിസിനസ് താല്പര്യങ്ങളെ പാടേ ഹനിക്കുന്നതാകരുത് പുതിയ എഐ നയങ്ങള് എന്നുറപ്പ് വരുത്തുന്നതിനും ഈ സമീപനം സഹായിക്കുമെന്ന കണക്കു കൂട്ടലും ഉണ്ടാകാം.
പ്രതീക്ഷകളിൽ പടരുന്ന ഇരുൾ നിഴലുകൾ
പക്ഷെ, നിർമ്മിതബുദ്ധിയുടെ പ്രണേതാക്കളുടെ ഭാഗത്ത് നിന്ന് ഇപ്പോൾ കണ്ടുവരുന്ന ഈ തുറന്ന സമീപനം മനുഷ്യരാശിയുടെ പൊതുതാല്പര്യങ്ങളെ മുൻനിർത്തിയുള്ള ഈ സാങ്കേതികവിദ്യയുടെ വികാസത്തിന് സഹായിക്കുമെന്ന് പ്രതീക്ഷിക്കാമോ? പല കാരണങ്ങൾ കൊണ്ട് അതത്ര എളുപ്പമായിരിക്കില്ല.
സമൂഹത്തിന്റെ വിശാല താല്പര്യങ്ങളേക്കാൾ ലാഭവും വിപണിയിലെ ആധിപത്യവും മുൻനിർത്തി മാത്രമേ സ്വകാര്യമൂലധനത്തിന് മുന്നോട്ട് പോകാനൊക്കു എന്നതാണ് ഒന്നാമത്തെ വിലങ്ങുതടി. മാത്രമല്ല, ആഗോള രാഷ്ട്രീയത്തിലെ കിടമത്സരങ്ങളും സർക്കാരുകളുടെ നിർമ്മിതബുദ്ധിയോടുള്ള സമീപനത്തെ സ്വാധീനിക്കും. നിർമ്മിതബുദ്ധി പോലുള്ള നൂതന സാങ്കേതികവിദ്യകളിലുള്ള മേൽക്കോയ്മയാണ് ഭാവിയിൽ സാമ്പത്തികവും രാഷ്ട്രീയവും ആയ തങ്ങളുടെ അധീശത്വത്തെ ആത്യന്തികമായി നിർണയിക്കാൻ പോകുന്നതെന്ന് അമേരിക്കയെയും ചൈനയെയും പോലുള്ള വൻശക്തികൾ തിരിച്ചറിയുന്നുണ്ട്. ഈ രാജ്യങ്ങൾ തമ്മിലുള്ള വ്യപാരതർക്കങ്ങളിൽ എഐ ഒരു പ്രധാന പരിഗണയാകുന്നത് അതുകൊണ്ടാണ്. അടുത്തകാലത്ത് നിർമ്മിതബുദ്ധിക്കാവശ്യമായ കമ്പ്യൂട്ടർ ചിപ്പുകളുടെ ചൈനയിലേക്കുള്ള കയറ്റുമതിക്ക് അമേരിക്ക നിയന്ത്രണങ്ങൾ ഏർപ്പെടുത്തിയത് ഓർക്കുക.
ഭരണകൂടങ്ങളുടെ നിർമ്മിതബുദ്ധിയോടുള്ള സമീപനത്തെ നിർണയിക്കാൻ പോകുന്ന മറ്റൊരു ഘടകം യുദ്ധതന്ത്രങ്ങളിലും ആയുധനിർമാണത്തിലും നിർമ്മിതബുദ്ധി വഹിക്കാൻ പോകുന്ന പങ്കാണ്. മുൻ ഗൂഗിൾ മേധാവി എറിക് ഷ്മിത്ത് നേതൃത്വം കൊടുക്കുന്ന ഒരു ഗ്രൂപ് പെന്റഗണിന് അത്യാധുനിക നിർമ്മിതബുദ്ധി ഉപയോഗിച്ച് യുഎസ് സൈന്യത്തെ ശാക്തീകരിക്കാനുള്ള ശുപാർശകൾ കുറച്ചു മാസങ്ങൾക്കു മുൻപ് നൽകിയിരുന്നു. അന്യരാജ്യങ്ങളോടുള്ള ശാക്തിക ബലാബലങ്ങളിൽ മാത്രമല്ല സ്വന്തം പൗരന്മാരെ നിയന്ത്രിക്കാനും നിരീക്ഷണത്തിന് വിധേയമാക്കാനും ഉപയോഗപ്പെടും എന്നതും സർക്കാരുകളുടെ, പ്രത്യേകിച്ച് സമഗ്രാധിപത്യ പ്രവണതകൾ ഉള്ള ഭരണകൂടങ്ങളുടെ, നിർമ്മിതബുദ്ധിയോടുള്ള സമീപനത്തെ സ്വാധീനിക്കും.
ഏറ്റവും ശുഭാപ്തിവിശ്വാസികൾക്കും കുറച്ചെങ്കിലും സംശയാലുക്കളാകാൻ മതിയായ കാരണങ്ങളുണ്ടെന്നർത്ഥം.