AIનો ખતરનાક અવતાર ! મહિલાઓના ફોટાઓ પરથી કપડાં હટાવતી એપ્સનો થઈ રહ્યો છે પ્રચાર
- AIનો ઉપયોગ વધ્યો, જેમાં સૌથી વધુ ઉપયોગ ખોટા કામો કરવામાં થઈ રહ્યો છે.
- AIનો ઉપયોગ કરીને મહિલાઓના ફોટાઓ એડિટ કરવામાં આવી રહ્યા છે, ત્યાર બાદ આવી એપ્સની મદદથી મહિલાઓની નગ્ન તસવીરો બનવાવીને પ્રમોટ કરવામાં આવી રહી છે.
આર્ટિફિશિયલ ઈન્ટેલિજન્સનો ઉપયોગ ઘણી બધી ખોટી પ્રવૃત્તિઓમાં શરૂ થઈ ગયો છે. ગ્રાફિકા નામની સોશિયલ નેટવર્ક એનાલિસિસ કંપનીએ આ સંબંધમાં એક રિપોર્ટ રજૂ કર્યો છે. રિપોર્ટ અનુસાર આર્ટિફિશિયલ ઈન્ટેલિજન્સ દ્વારા મહિલાઓની નગ્ન તસવીરો બનાવતી એપ્સ અને વેબસાઈટ્સની લોકપ્રિયતા ઝડપથી વધી રહી છે.
ગ્રાફિકા અનુસાર, સપ્ટેમ્બર મહિનામાં 2.4 કરોડ યુઝર્સે આવી વેબસાઇટ્સની મુલાકાત લીધી છે. આમાંની મોટાભાગની ‘Nudify’ સેવાઓનું માર્કેટિંગ કરવા માટે લોકપ્રિય સોશિયલ નેટવર્કનો ઉપયોગ કરવામાં આવી રહ્યો છે. આ વર્ષની શરૂઆતથી સોશિયલ મીડિયા પ્લેટફોર્મ પર આવી લિંક્સની જાહેરાતોમાં 2400 ટકાનો વધારો થયો છે.
આવી એપ્સનો સોશિયલ મીડિયા પર પ્રચાર થઈ રહ્યો છે
સોશિયલ મીડિયા પ્લેટફોર્મ Reddit અને X પર પણ મહિલાના ફોટા પરથી કપડાં કાઢી શકાય એવી એપ્સનો પ્રચાર કરવામાં આવી રહ્યો છે. આ એપ્સ સેવાઓમાં કોઈ પણ વ્યક્તિના કપડાં કાઢી શકાય છે. આમાંની ઘણી સેવાઓ ફક્ત મહિલાઓના ફોટા પર જ કામ કરે છે. આ એપ્સના કારણે કોઈનો અશ્લીલ વીડિયો બનાવીને પ્લેટફોર્મ પર અપલોડ કરી શકાય છે. એપ્સમાં AIની મદદથી કોઈપણ વ્યક્તિના વાંધાજનક વીડિયો બનાવવાની ક્ષમતા છે.
સરળ ભાષામાં કહીએ તો તેઓ આ ફોટોને ડીપફેક પોર્નોગ્રાફીના ઉપયોગમાં લેવાય છે. આવા વીડિયો બનાવવા માટે, સોશિયલ મીડિયા પ્લેટફોર્મ પરથી ફોટા પણ ઉપાડી શકાય છે અને ખરાબ ઈરાદા સાથે કોઈ પણને મોકલી પણ શકાય છે.
ફોટો પોર્નોગ્રાફીમાં વપરાય છે
X હેન્ડલ પર પોસ્ટ કરીને આવી તસવીરનો પ્રચાર કરવામાં આવી રહ્યો છે. પોસ્ટમાં કહેવામાં આવ્યું છે કે કપડાં ઉતારવાની એપની મદદથી આવા ફોટા બનાવી શકાય છે. Google ના YouTube પર કન્ટેન્ટને સ્પોન્સર કરવા માટે એક એપ્લિકેશને ચૂકવણી કરી છે અને જ્યારે ‘nudify’ શબ્દ સર્ચ કરવામાં આવે ત્યારે તે પ્રથમ દેખાય છે.
આ મામલે ગૂગલના પ્રવક્તાએ કહ્યું છે કે કંપની આવી જાહેરાતોને મંજૂરી આપતી નથી, જેમાં સ્પષ્ટ સેક્સ્યુઅલ કન્ટેન્ટ હોય. તેમણે કહ્યું કે અમે વિવાદિત જાહેરાતની સમીક્ષા કરી છે અને અમારી નીતિનું ઉલ્લંઘન કરતી તમામ જાહેરાતોને દૂર કરવામાં આવી રહી છે. જો કે X અને Reddit દ્વારા આ મામલે કોઈ પ્રતિક્રિયા આપવામાં આવી નથી.
બિન-સહમતિયુક્ત પોર્નોગ્રાફી લાંબા સમયથી ઇન્ટરનેટ પર જોવા મળી રહ્યા છે. આ ખાસ કરીને પ્રખ્યાત લોકોના કિસ્સામાં ઘણું જોવા મળે છે. ગોપનીયતા નિષ્ણાતો AI ટેક્નોલોજીના ઉપયોગ અંગે પ્રશ્નો ઉઠાવી રહ્યા છે. આના ઉપયોગથી ડીપફેક વીડિયો સરળતાથી બનાવી શકાય છે.
આ પણ વાંચો: Apple ને લાગી શકે છે વધુ એક ઝટકો, ટચ આઈડી સહિતની ટેક. વિકસાવનાર અધિકારી થશે અલગ