Studiuesit zbuluan se inteligjenca artificiale kishte vështirësi në zgjidhjen e problemeve matematikore, duke treguar se sa jashtë hapit ishte teknologjia e re me aftësitë përpunuese të së kaluarës.
Chatbots, si ChatGPT i OpenAI, mund të shkruajnë poezi, të ritregojnë një libër dhe t’u përgjigjen pyetjeve, shpesh me rrjedhshmëri të ngjashme me njeriun.
Këto sisteme mund të zgjidhin probleme matematikore bazuar në atë që kanë mësuar, por rezultatet shpesh mund të ndryshojnë ose të jenë të gabuara. Inteligjenca artificiale është programuar dhe “ngurtësuar” për të ofruar llogaritje probabiliste, por jo për të ofruar llogaritje të bazuara në rregulla, raporton New York Times.
“Chatbot-et e AI-së kanë probleme me matematikën, sepse nuk janë krijuar kurrë për ta bërë këtë,” thotë Christian Hammond, një profesor i AI dhe studiues në Universitetin Northwestern.
Kjo lloj inteligjence artificiale nuk është e programuar me rregulla të ngurta, por mëson duke analizuar sasi të mëdha të dhënash. Ai gjeneron gjuhën, bazuar në të gjithë informacionin që ka mbledhur, duke parashikuar se cila fjalë ose frazë ka të ngjarë të vijë më pas – njësoj si njerëzit.
“Kjo teknologji është e shkëlqyer, por nuk mund të bëjë gjithçka. Të gjithë duan që përgjigja e AI të jetë një gjë. Është e çmendur,” thotë Hammond.
Me kalimin e kohës, chatbot-et e AI-së kanë hasur edhe në problemet më të thjeshta aritmetike dhe matematikore që kërkojnë hapa të shumtë për t’u zgjidhur. Aftësitë e AI janë duke u përmirësuar, por ende mungon.
Performanca e pabarabartë e teknologjisë në fushën e matematikës kontribuon në një debat të nxehtë në komunitetin e AI rreth mënyrës më të mirë përpara në këtë fushë. Në përgjithësi, ka dy kampe.
Nga njëra anë janë ata që besojnë se rrjetet nervore të avancuara, të njohura si modele të mëdha gjuhësore, që fuqizojnë chatbot-et e AI përfaqësojnë një rrugë pothuajse unike drejt progresit të qëndrueshëm dhe përfundimisht drejt inteligjencës së përgjithshme artificiale, ose AGI – një kompjuter që mund të bëjë gjithçka që mundet truri i njeriut. bëj. Kjo është pamja mbizotëruese në pjesën më të madhe të Silicon Valley.
Megjithatë, ka skeptikë që vënë në dyshim nëse shtimi i më shumë të dhënave dhe përpunimi më i fuqishëm kompjuterik në modelet e mëdha gjuhësore është i mjaftueshëm.
“Modelet me gjuhë të mëdha kanë një kuptim të dobët të logjikës dhe nuk kanë arsyetim të arsyeshëm”, thotë Jan Lekun, kryeinxhinier i AI në Meta. Ajo që nevojitet është një qasje më e gjerë, të cilën LeCun e quan “modelimi i botës”, ose sisteme që mund të mësojnë se si funksionon bota po aq mirë sa njerëzit. Por mund të duhen një dekadë ose më shumë për ta arritur këtë.