/indian-express-gujarati/media/media_files/wp-content/uploads/2023/02/microsoft-new-bing-explained.jpg)
Bing ચેટબોટ એક પ્રકારની કૃત્રિમ બુદ્ધિ દ્વારા સંચાલિત છે જેને ન્યુરલ નેટવર્ક કહેવાય છે.
New York Times : માઇક્રોસોફ્ટે ગયા અઠવાડિયે તેના બિંગ સર્ચ એન્જિનનું નવું વરઝ્ન બહાર પાડ્યું હતું, અને સામાન્ય સર્ચ એન્જિનથી વિપરીત તેમાં એક ચેટબોટ શામેલ છે જે સ્પષ્ટ, ચોક્કસ ભાષામાં પ્રશ્નોના જવાબ આપી શકે છે. ત્યારથી, લોકોએ નોંધ્યું છે કે Bing ચેટબોટ જે જનરેટ કરે છે તેમાંથી અમુક અચોક્કસ, ભ્રામક અને એકદમ વિચિત્ર છે, જે ભય પેદા કરે છે કે તે સેન્સિટિવ બની ગયું છે અથવા તેની આસપાસની દુનિયાથી વાકેફ છે. અને શા માટે તે સમજવા માટે, ચેટબોટ્સ ખરેખર કેવી રીતે કાર્ય કરે છે તે જાણવું મહત્વપૂર્ણ છે.
શું ચેટબોટ લાઈવ છે?
ના
જૂનમાં, એક Google એન્જિનિયર, બ્લેક લેમોઇને દાવો કર્યો હતો કે Google ની અંદર ટેસ્ટ કરવામાં આવતી સમાન ચેટબોટ ટેક્નોલોજી સેન્સટીવ હતી. તે ખોટું છે. ચેટબોટ્સ સભાન નથી અને બુદ્ધિશાળી નથી કે જે રીતે માણસો બુદ્ધિશાળી છે.
તો તે જીવંત કેમ લાગે છે?
Bing ચેટબોટ એક પ્રકારની આર્ટીફીસીયલ ઇન્ટેલિજન્સ દ્વારા સંચાલિત છે જેને ન્યુરલ નેટવર્ક કહેવાય છે. તે કોમ્પ્યુટરાઇઝ્ડ મગજ જેવું લાગે છે, પરંતુ આ શબ્દ મિસલિડિંગ છે.
ન્યુરલ નેટવર્ક માત્ર એક મેથેમેટિકલ સિસ્ટમ છે જે વિશાળ માત્રામાં ડિજિટલ ડેટાનું એનાલિસિસ કરીને સ્કિલ શીખે છે. જેમ કે ન્યુરલ નેટવર્ક બિલાડીના હજારો ફોટાની તપાસ કરે છે, દાખલા તરીકે, તે બિલાડીને ઓળખવાનું શીખી શકે છે.
મોટાભાગના લોકો દરરોજ ન્યુરલ નેટવર્કનો ઉપયોગ કરે છે. તે એવી ટેક્નોલોજી છે જે Google Photos જેવી ઇન્ટરનેટ સેવાઓ પર પોસ્ટ કરવામાં આવેલી પોતામાં લોકો, પાલતુ પ્રાણીઓ અને અન્ય વસ્તુઓને ઓળખે છે. તે Apple અને Amazon ના બોલતા વોઇસ આસિસ્ટન્ટ Siri અને Alexa ને તમે જે શબ્દો બોલો છો તેને ઓળખવા માટે પરવાનગી આપે છે. અને તે Google અનુવાદ જેવી સેવાઓ પર અંગ્રેજી અને સ્પેનિશ વચ્ચે ભાષાંતર કરે છે.
માણસો જે રીતે ભાષાનો ઉપયોગ કરે છે તેની નકલ કરવામાં ન્યુરલ નેટવર્ક્સ ખૂબ સારા છે. અને તે ટેક્નોલોજી ખરેખર છે તેના કરતાં વધુ શક્તિશાળી છે તે વિચારવામાં આપણને ગેરમાર્ગે દોરી શકે છે.
ન્યુરલ નેટવર્ક માનવ ભાષાની બરાબર કેવી રીતે નકલ કરે છે?
લગભગ પાંચ વર્ષ પહેલાં, ગૂગલ અને ઓપનએઆઈ જેવી કંપનીઓના સંશોધકો, સાન ફ્રાન્સિસ્કો સ્ટાર્ટઅપ કે જેણે તાજેતરમાં લોકપ્રિય ચેટજીપીટી ચેટબોટ બહાર પાડ્યું હતું, ન્યુરલ નેટવર્ક્સ બનાવવાનું શરૂ કર્યું જે પુસ્તકો, વિકિપીડિયા લેખો, ચેટ લોગ અને તમામ પ્રકારના ડિજિટલ ટેક્સ્ટ સહિત ઇન્ટરનેટ પર પોસ્ટ કરેલી અન્ય સામગ્રી પ્રચંડ માત્રામાં શીખ્યા હતા.
આ ન્યુરલ નેટવર્કને મોટા ભાષાના મોડલ તરીકે ઓળખવામાં આવે છે. તમે જેને માનવ ભાષાનો મેથેમેટિકલ નકશો કહી શકો તે બનાવવા માટે તેઓ ડેટાના તે ઢગલાનો ઉપયોગ કરવામાં સક્ષમ છે. આ નકશાનો ઉપયોગ કરીને, ન્યુરલ નેટવર્ક્સ તેમના પોતાના ટ્વીટ્સ લખવા, ભાષણો લખવા, કમ્પ્યુટર પ્રોગ્રામ્સ બનાવવા અને હા, વાતચીત કરવા જેવા ઘણા કાર્યો કરી શકે છે.
આ વિશાળ ભાષા મોડેલો ઉપયોગી સાબિત થયા છે. માઈક્રોસોફ્ટ એક ટૂલ, કોપાયલોટ ઓફર કરે છે, જે મોટા ભાષાના મોડલ પર બનેલ છે અને કોમ્પ્યુટર પ્રોગ્રામરો સોફ્ટવેર એપ્સ બનાવે છે તે રીતે કોડની આગલી લાઇન સૂચવી શકે છે, જે રીતે તમે ટેક્સ્ટ અથવા ઈમેઈલ લખો છો ત્યારે જાતે સાધનો આગળનો શબ્દ સૂચવે છે.
આ પણ વાંચો: fact-check body : ઓનલાઈન કન્ટેન્ટ માટે ફેક્ટ-ચેકરનું નેટવર્ક સ્થાપવાની બની યોજના
અન્ય કંપનીઓ સમાન ટેક્નોલોજી ઓફર કરે છે જે માર્કેટિંગ સામગ્રી, ઇમેઇલ્સ અને અન્ય ટેક્સ્ટ જનરેટ કરી શકે છે. આ પ્રકારની ટેકનોલોજીને જનરેટિવ AI તરીકે પણ ઓળખવામાં આવે છે.
નવેમ્બરમાં, ઓપનએઆઈએ ચેટજીપીટી રજૂ કર્યું હતું , જે પ્રથમ વખત સામાન્ય લોકોએ તેનો અનુભવ કર્યો હતો. લોકો આશ્ચર્યચકિત થઈ ગયા હતા અને તે સાચું છે.
આ ચેટબોટ્સ માણસની જેમ બરાબર ચેટ કરતા નથી, પરંતુ તેઓ ઘણી વાર એવું લાગે છે. તેઓ ટર્મ પેપર અને કવિતા પણ લખી શકે છે અને લગભગ કોઈપણ વિષય પર રિફ કરી શકે છે.
તેઓ શા માટે ખોટી માહિતી મેળવે છે?
કારણ કે તેઓ ઇન્ટરનેટ પરથી શીખે છે. વેબ પર કેટલી ખોટી માહિતી અને અન્ય બિનજરૂરી કન્ટેન્ટ છે તે વિશે વિચારવુ જોઈએ.
આ સિસ્ટમો પણ ઇન્ટરનેટ પર જે છે તે શબ્દ માટે રિપીટ કરતી નથી. તેઓ જે શીખ્યા છે તેના પર દોરવાથી, તેઓ પોતાની જાતે જ નવું લખાણ બનાવે છે, જેને AI સંશોધકો "આભાસ" કહે છે.
આથી જ જો તમે એક જ પ્રશ્ન બે વાર પૂછો તો ચેટબોટ્સ તમને જુદા જુદા જવાબો આપી શકે છે. તેઓ કંઈપણ કહેશે, પછી ભલે તે વાસ્તવિકતા પર આધારિત હોય કે ન હોય.
જો ચેટબોટ્સ 'આભાસ' કરે છે, તો શું તે તેમને સંવેદનશીલ નથી બનાવતું?
AI સંશોધકો એવા શબ્દોનો ઉપયોગ કરવાનું પસંદ કરે છે જે આ સિસ્ટમોને માનવ લાગે. પરંતુ આભાસ એ "તેઓ સામગ્રી બનાવે છે" માટે માત્ર આકર્ષક શબ્દ છે.
તે વિલક્ષણ અને ખતરનાક લાગે છે, પરંતુ તેનો અર્થ એ નથી કે ટેક્નોલોજી કોઈક રીતે જીવંત છે અથવા તેની આસપાસના વાતાવરણથી વાકેફ છે. તે માત્ર પેટર્નનો ઉપયોગ કરીને ટેક્સ્ટ જનરેટ કરે છે જે તેને ઇન્ટરનેટ પર મળે છે. ઘણા કિસ્સાઓમાં, તે આશ્ચર્યજનક અને અવ્યવસ્થિત રીતે પેટર્નને ભળે છે અને મેળ ખાય છે. પરંતુ તે શું કરે છે તેની જાણ નથી. તે મનુષ્યની જેમ તર્ક કરી શકે નહીં.
આ પણ વાંચો: BBC after I-T ‘survey’: “કોઈપણ ડર અને પક્ષપાત વગર રિપોર્ટ કરનાર પત્રકારો સાથે ઊભા રહો”
શું કંપનીઓ ચેટબોટ્સને વિચિત્ર વર્તન કરતા રોકી શકતી નથી?
તેઓ પ્રયાસ કરી રહ્યા છે.
ChatGPT સાથે, OpenAI એ ટેક્નોલોજીના વર્તનને કંટ્રોલ કરવાનો પ્રયાસ કર્યો હતો. લોકોના એક નાના જૂથે ખાનગી રીતે સિસ્ટમનું પરીક્ષણ કર્યું હોવાથી, OpenAIએ તેમને તેના પ્રતિસાદોને રેટ કરવા કહ્યું હતું. શું તેઓ ઉપયોગી હતા? શું તેઓ સત્યવાદી હતા? પછી OpenAI એ આ રેટિંગ્સનો ઉપયોગ સિસ્ટમને વધુ સારી બનાવવા માટે અને વધુ કાળજીપૂર્વક વ્યાખ્યાયિત કરવા માટે કર્યો કે તે શું કરશે અને શું નહીં.
પરંતુ આવી ટેક્નોલોજી સંપૂર્ણ નથી. આજે વૈજ્ઞાનિકો જાણતા નથી કે કેવી રીતે સિસ્ટમો બનાવવી જે સંપૂર્ણપણે સત્ય છે. તેઓ અચોક્કસતા અને વિચિત્રતાને મર્યાદિત કરી શકે છે, પરંતુ તેઓ તેમને રોકી શકતા નથી. વિચિત્ર વર્તણૂકો પર લગામ લગાવવાની એક રીત ચેટ્સને ટૂંકી રાખવાની છે.
પરંતુ ચેટબોટ્સ હજુ પણ એવી વસ્તુઓ ફેલાવશે જે સાચી નથી. અને જેમ જેમ અન્ય કંપનીઓ આ પ્રકારના બોટને જમાવવાનું શરૂ કરે છે, તેમ દરેક વ્યક્તિ શું કરી શકે અને શું ન કરી શકે તે કંટ્રોલ કરવામાં સારું રહેશે નહીં.
/indian-express-gujarati/media/agency_attachments/2025/11/10/2025-11-10t115614773z-ieg-logo-640x480-javed-ahmad-2025-11-10-17-26-13.png)
Follow Us