ആപ്പിളിന്റെ CSAM സംവിധാനം വഞ്ചിക്കപ്പെട്ടു, എന്നാൽ കമ്പനിക്ക് രണ്ട് സുരക്ഷാ മാർഗങ്ങളുണ്ട്

അപ്‌ഡേറ്റ്: ആപ്പിൾ സെർവറിന്റെ രണ്ടാമത്തെ പരിശോധനയെക്കുറിച്ച് പരാമർശിച്ചു, കൂടാതെ ഒരു പ്രൊഫഷണൽ കമ്പ്യൂട്ടർ വിഷൻ കമ്പനി ഇത് വിവരിക്കാവുന്നതിന്റെ സാധ്യതയെക്കുറിച്ച് ചുവടെയുള്ള "രണ്ടാം പരിശോധന എങ്ങനെ പ്രവർത്തിക്കും" എന്നതിൽ വിവരിച്ചു.
ഡെവലപ്പർമാർ അതിന്റെ എഞ്ചിനീയറിംഗ് ഭാഗങ്ങൾ റിവേഴ്സ് ചെയ്ത ശേഷം, ആപ്പിൾ CSAM സിസ്റ്റത്തിന്റെ ആദ്യകാല പതിപ്പ് ഒരു നിരപരാധിയായ ചിത്രം അടയാളപ്പെടുത്താൻ ഫലപ്രദമായി കബളിപ്പിക്കപ്പെട്ടു.എന്നിരുന്നാലും, യഥാർത്ഥ ജീവിതത്തിൽ ഇത് സംഭവിക്കുന്നത് തടയാൻ കൂടുതൽ സുരക്ഷാ സംവിധാനങ്ങളുണ്ടെന്ന് ആപ്പിൾ പറഞ്ഞു.
ന്യൂറൽ ഹാഷ് അൽഗോരിതം ഓപ്പൺ സോഴ്‌സ് ഡെവലപ്പർ വെബ്‌സൈറ്റായ GitHub-ൽ പ്രസിദ്ധീകരിച്ചതിന് ശേഷമാണ് ഏറ്റവും പുതിയ വികസനം സംഭവിച്ചത്, ആർക്കും ഇത് പരീക്ഷിക്കാൻ കഴിയും…
നാഷണൽ സെന്റർ ഫോർ മിസ്സിംഗ് ആൻഡ് എക്‌സ്‌പ്ലോയിറ്റഡ് ചിൽഡ്രൻ (NCMEC) പോലെയുള്ള ഓർഗനൈസേഷനുകളിൽ നിന്ന് അറിയപ്പെടുന്ന കുട്ടികളുടെ ലൈംഗിക ദുരുപയോഗ സാമഗ്രികളുടെ ഒരു ഡാറ്റാബേസ് ഇറക്കുമതി ചെയ്താണ് എല്ലാ CSAM സിസ്റ്റങ്ങളും പ്രവർത്തിക്കുന്നത്.ചിത്രങ്ങളിൽ നിന്നുള്ള ഹാഷുകൾ അല്ലെങ്കിൽ ഡിജിറ്റൽ ഫിംഗർപ്രിന്റ് രൂപത്തിലാണ് ഡാറ്റാബേസ് നൽകിയിരിക്കുന്നത്.
മിക്ക സാങ്കേതിക ഭീമന്മാരും ക്ലൗഡിൽ അപ്‌ലോഡ് ചെയ്‌ത ഫോട്ടോകൾ സ്‌കാൻ ചെയ്‌തെങ്കിലും, സംഭരിച്ച ഫോട്ടോയുടെ ഒരു ഹാഷ് മൂല്യം സൃഷ്‌ടിക്കാൻ ആപ്പിൾ ഉപഭോക്താവിന്റെ iPhone-ലെ NeuralHash അൽഗോരിതം ഉപയോഗിക്കുന്നു, തുടർന്ന് CSAM ഹാഷ് മൂല്യത്തിന്റെ ഡൗൺലോഡ് ചെയ്‌ത പകർപ്പുമായി താരതമ്യം ചെയ്യുന്നു.
ഇന്നലെ, ഒരു ഡവലപ്പർ ആപ്പിളിന്റെ അൽഗോരിതം റിവേഴ്‌സ് എഞ്ചിനീയറിംഗ് ചെയ്തുവെന്ന് അവകാശപ്പെടുകയും കോഡ് GitHub-ലേക്ക് റിലീസ് ചെയ്യുകയും ചെയ്തു-ഈ അവകാശവാദം ആപ്പിൾ ഫലപ്രദമായി സ്ഥിരീകരിച്ചു.
GitHib പുറത്തിറങ്ങി ഏതാനും മണിക്കൂറുകൾക്കുള്ളിൽ, ഗവേഷകർ മനഃപൂർവ്വം തെറ്റായ പോസിറ്റീവ് സൃഷ്ടിക്കാൻ അൽഗോരിതം വിജയകരമായി ഉപയോഗിച്ചു - ഒരേ ഹാഷ് മൂല്യം സൃഷ്ടിച്ച രണ്ട് തികച്ചും വ്യത്യസ്തമായ ചിത്രങ്ങൾ.ഇതിനെ കൂട്ടിയിടി എന്നു പറയുന്നു.
അത്തരം സിസ്റ്റങ്ങൾക്ക്, കൂട്ടിയിടി ഉണ്ടാകാനുള്ള സാധ്യത എപ്പോഴും ഉണ്ട്, കാരണം ഹാഷ് തീർച്ചയായും ചിത്രത്തിന്റെ വളരെ ലളിതമായ ഒരു പ്രതിനിധാനമാണ്, എന്നാൽ ഒരാൾക്ക് പെട്ടെന്ന് ചിത്രം സൃഷ്ടിക്കാൻ കഴിയുന്നത് ആശ്ചര്യകരമാണ്.
ഇവിടെ ബോധപൂർവമായ കൂട്ടിയിടി ആശയത്തിന്റെ തെളിവ് മാത്രമാണ്.ഡെവലപ്പർമാർക്ക് CSAM ഹാഷ് ഡാറ്റാബേസിലേക്ക് ആക്സസ് ഇല്ല, തത്സമയ സിസ്റ്റത്തിൽ തെറ്റായ പോസിറ്റീവുകൾ സൃഷ്ടിക്കേണ്ടതുണ്ട്, എന്നാൽ കൂട്ടിയിടി ആക്രമണങ്ങൾ തത്വത്തിൽ താരതമ്യേന എളുപ്പമാണെന്ന് ഇത് തെളിയിക്കുന്നു.
അൽഗോരിതം സ്വന്തം സിസ്റ്റത്തിന്റെ അടിസ്ഥാനമാണെന്ന് ആപ്പിൾ ഫലപ്രദമായി സ്ഥിരീകരിച്ചു, എന്നാൽ ഇത് അന്തിമ പതിപ്പല്ലെന്ന് മദർബോർഡിനോട് പറഞ്ഞു.ഇത് ഒരിക്കലും രഹസ്യമായി സൂക്ഷിക്കാൻ ഉദ്ദേശിക്കുന്നില്ലെന്നും കമ്പനി വ്യക്തമാക്കി.
GitHub-ലെ ഉപയോക്താവ് വിശകലനം ചെയ്ത പതിപ്പ് ഒരു ജനറിക് പതിപ്പാണെന്നും iCloud ഫോട്ടോ CSAM കണ്ടെത്തലിനായി ഉപയോഗിക്കുന്ന അന്തിമ പതിപ്പല്ലെന്നും ആപ്പിൾ ഒരു ഇമെയിലിൽ മദർബോർഡിനോട് പറഞ്ഞു.അൽഗോരിതം വെളിപ്പെടുത്തിയതായി ആപ്പിൾ പറഞ്ഞു.
"NeuralHash അൽഗോരിതം [...] ഒപ്പിട്ട ഓപ്പറേറ്റിംഗ് സിസ്റ്റം കോഡിന്റെ ഭാഗമാണ് [കൂടാതെ] സുരക്ഷാ ഗവേഷകർക്ക് അതിന്റെ പെരുമാറ്റം വിവരണവുമായി പൊരുത്തപ്പെടുന്നുണ്ടോയെന്ന് പരിശോധിക്കാൻ കഴിയും," ഒരു ആപ്പിൾ ഡോക്യുമെന്റ് എഴുതി.
രണ്ട് ഘട്ടങ്ങൾ കൂടി ഉണ്ടെന്ന് കമ്പനി പറഞ്ഞു: സ്വന്തം സെർവറിൽ ഒരു ദ്വിതീയ (രഹസ്യ) മാച്ചിംഗ് സിസ്റ്റം പ്രവർത്തിപ്പിക്കുക, മാനുവൽ അവലോകനം.
ഉപയോക്താക്കൾ 30-മാച്ച് ത്രെഷോൾഡ് കടന്നതിന് ശേഷം, ആപ്പിളിന്റെ സെർവറുകളിൽ പ്രവർത്തിക്കുന്ന രണ്ടാമത്തെ നോൺ-പബ്ലിക് അൽഗോരിതം ഫലങ്ങൾ പരിശോധിക്കുമെന്നും ആപ്പിൾ പറഞ്ഞു.
"സി‌എസ്‌എ‌എം ഇതര ചിത്രങ്ങളുടെ പ്രതികൂല ഇടപെടൽ കാരണം തെറ്റായ ന്യൂറൽ ഹാഷ് ഉപകരണത്തിലെ എൻ‌ക്രിപ്റ്റ് ചെയ്‌ത സി‌എസ്‌എഎം ഡാറ്റാബേസുമായി പൊരുത്തപ്പെടുന്നതിനും പൊരുത്തപ്പെടുന്ന പരിധി കവിയുന്നതിനുമുള്ള സാധ്യത നിരസിക്കാൻ ഈ സ്വതന്ത്ര ഹാഷ് തിരഞ്ഞെടുത്തു."
കൂട്ടിയിടി ആക്രമണത്തിനുള്ള ആശയത്തിന്റെ തെളിവായി പോസ്റ്റ് ചെയ്ത രണ്ട് ചിത്രങ്ങളും തമ്മിൽ എളുപ്പത്തിൽ വേർതിരിച്ചറിയാൻ റോബോഫ്ലോയുടെ ബ്രാഡ് ഡ്വയർ ഒരു മാർഗം കണ്ടെത്തി.
സമാനവും എന്നാൽ വ്യത്യസ്തവുമായ ന്യൂറൽ ഫീച്ചർ എക്‌സ്‌ട്രാക്‌ടർ OpenAI-യുടെ CLIP-ൽ ഈ ചിത്രങ്ങൾ എങ്ങനെ കാണപ്പെടുന്നുവെന്ന് എനിക്ക് ജിജ്ഞാസയുണ്ട്.CLIP ന്യൂറൽ ഹാഷിന് സമാനമായി പ്രവർത്തിക്കുന്നു;ഇത് ഒരു ഇമേജ് എടുക്കുകയും ചിത്രത്തിന്റെ ഉള്ളടക്കത്തിലേക്ക് മാപ്പ് ചെയ്യുന്ന ഒരു കൂട്ടം ഫീച്ചർ വെക്റ്ററുകൾ സൃഷ്ടിക്കാൻ ഒരു ന്യൂറൽ നെറ്റ്‌വർക്ക് ഉപയോഗിക്കുകയും ചെയ്യുന്നു.
എന്നാൽ OpenAI യുടെ നെറ്റ്‌വർക്ക് വ്യത്യസ്തമാണ്.ചിത്രങ്ങൾക്കും വാചകത്തിനും ഇടയിൽ മാപ്പ് ചെയ്യാൻ കഴിയുന്ന ഒരു പൊതു മാതൃകയാണിത്.മനുഷ്യന് മനസ്സിലാക്കാവുന്ന ഇമേജ് വിവരങ്ങൾ എക്‌സ്‌ട്രാക്‌റ്റുചെയ്യാൻ ഞങ്ങൾക്ക് ഇത് ഉപയോഗിക്കാമെന്നാണ് ഇതിനർത്ഥം.
അതും കബളിപ്പിക്കപ്പെട്ടതാണോ എന്നറിയാൻ ഞാൻ മുകളിലെ രണ്ട് കൂട്ടിയിടി ചിത്രങ്ങളും CLIP വഴി ഓടിച്ചു.ഹ്രസ്വമായ ഉത്തരം: ഇല്ല.കണ്ടെത്തിയ CSAM ഇമേജുകൾ യഥാർത്ഥമാണോ വ്യാജമാണോ എന്ന് നിർണ്ണയിക്കാൻ ആപ്പിളിന് രണ്ടാമത്തെ ഫീച്ചർ എക്‌സ്‌ട്രാക്റ്റർ നെറ്റ്‌വർക്ക് (CLIP പോലുള്ളവ) പ്രയോഗിക്കാൻ കഴിയുമെന്നാണ് ഇതിനർത്ഥം.ഒരേ സമയം രണ്ട് നെറ്റ്‌വർക്കുകളെ കബളിപ്പിക്കുന്ന ചിത്രങ്ങൾ സൃഷ്ടിക്കുന്നത് വളരെ ബുദ്ധിമുട്ടാണ്.
അവസാനമായി, നേരത്തെ സൂചിപ്പിച്ചതുപോലെ, ചിത്രങ്ങൾ CSAM ആണെന്ന് സ്ഥിരീകരിക്കാൻ സ്വമേധയാ അവലോകനം ചെയ്യുന്നു.
ആപ്പിളിനെ ശല്യപ്പെടുത്താൻ ആഗ്രഹിക്കുന്ന ആർക്കും മനുഷ്യ നിരൂപകർക്ക് തെറ്റായ പോസിറ്റീവ് നൽകാൻ കഴിയുമെന്നതാണ് യഥാർത്ഥ അപകടമെന്ന് ഒരു സുരക്ഷാ ഗവേഷകൻ പറഞ്ഞു.
"ആപ്പിൾ യഥാർത്ഥത്തിൽ ഈ സിസ്റ്റം രൂപകൽപ്പന ചെയ്‌തിരിക്കുന്നു, അതിനാൽ ഹാഷ് ഫംഗ്‌ഷൻ രഹസ്യമായി സൂക്ഷിക്കേണ്ടതില്ല, കാരണം 'CSAM അല്ലാത്ത CSAM' ഉപയോഗിച്ച് നിങ്ങൾക്ക് ചെയ്യാൻ കഴിയുന്ന ഒരേയൊരു കാര്യം ചില ജങ്ക് ഇമേജുകൾ ഉപയോഗിച്ച് ആപ്പിളിന്റെ പ്രതികരണ ടീമിനെ അലോസരപ്പെടുത്തുക എന്നതാണ്. വിശകലനം പൈപ്പ്‌ലൈനിലെ മാലിന്യങ്ങൾ തെറ്റായ പോസിറ്റീവ് ആണ്, ”ബെർക്ക്‌ലിയിലെ കാലിഫോർണിയ സർവകലാശാലയിലെ ഇൻസ്റ്റിറ്റ്യൂട്ട് ഓഫ് ഇന്റർനാഷണൽ കമ്പ്യൂട്ടർ സയൻസിലെ മുതിർന്ന ഗവേഷകനായ നിക്കോളാസ് വീവർ ഒരു ഓൺലൈൻ ചാറ്റിൽ മദർബോർഡിനോട് പറഞ്ഞു.
ഇന്നത്തെ ലോകത്ത് വർധിച്ചുവരുന്ന ആശങ്കയുടെ ഒരു പ്രശ്നമാണ് സ്വകാര്യത.ഞങ്ങളുടെ മാർഗ്ഗനിർദ്ദേശങ്ങളിലെ സ്വകാര്യത, സുരക്ഷ മുതലായവയുമായി ബന്ധപ്പെട്ട എല്ലാ റിപ്പോർട്ടുകളും പിന്തുടരുക.
ബെൻ ലവ്ജോയ് ഒരു ബ്രിട്ടീഷ് സാങ്കേതിക എഴുത്തുകാരനും 9to5Mac-ന്റെ EU എഡിറ്ററുമാണ്.തന്റെ കോളങ്ങൾക്കും ഡയറി ലേഖനങ്ങൾക്കും പേരുകേട്ട അദ്ദേഹം, കൂടുതൽ സമഗ്രമായ അവലോകനങ്ങൾ ലഭിക്കുന്നതിന് കാലക്രമേണ ആപ്പിൾ ഉൽപ്പന്നങ്ങളുമായുള്ള തന്റെ അനുഭവം പര്യവേക്ഷണം ചെയ്യുന്നു.അദ്ദേഹം നോവലുകളും എഴുതുന്നു, രണ്ട് ടെക്‌നിക്കൽ ത്രില്ലറുകൾ, കുറച്ച് ഹ്രസ്വ സയൻസ് ഫിക്ഷൻ സിനിമകൾ, ഒരു റോം-കോം എന്നിവയുണ്ട്!


പോസ്റ്റ് സമയം: ഓഗസ്റ്റ്-20-2021