venerdì, Novembre 15, 2024

L’Artificial General Intelligence (AGI) è un’allucinazione molto umana

In Scintille di intelligenza artificiale generale: primi esperimenti con GPT-4E I ricercatori Microsoft il 22 marzo hanno riportato i risultati della loro indagine su una “prima versione” di GPT-4, sostenendo che mostra “un’intelligenza più generale rispetto ai precedenti modelli di intelligenza artificiale”. Data l’ampiezza e la profondità delle capacità di GPT-4, che mostrano prestazioni quasi umane in una varietà di missioni nuove e impegnative, i ricercatori hanno concluso che “può essere considerata una versione iniziale (ma incompleta) di un’intelligenza generale artificiale (AGI ) sistema”.

I ricercatori Microsoft hanno ottenuto un picco iniziale su GPT-4 (rilasciato il 14 marzo) probabilmente perché Microsoft ha investito $ 10 miliardi in OpenAI, il creatore di GPT-4 e ChatGPT. Gary Marcus non era contento. Marcus: “È un’affermazione ridicola, dato che è completamente aperta all’interpretazione (la calcolatrice potrebbe essere considerata una versione iniziale ma incompleta di AGI? E Eliza? Siri?)” litigare, sottolineando le carenze persistenti dell’attuale generazione di modelli linguistici di grandi dimensioni (LLM): “Il problema delle allucinazioni non è stato risolto; l’affidabilità non risolve; La pianificazione di compiti complessi (come ammettono gli stessi autori) non è risolta.

Se per “AGI” (incluso Marcus) intendiamo rendere la macchina “intelligente” come gli umani, allora perché l’esistenza delle allucinazioni dovrebbe essere un problema così umano? L ‘”intelligenza artificiale” o anche la normale “intelligenza artificiale” non è un’allucinazione molto umana?

Una definizione di allucinazione data dal dizionario Maryam-Webster è “un malinteso o un’impressione infondata”. Ovviamente Marcus, come molte persone intelligenti oggi, crede che la calcolatrice non sia un’intelligenza artificiale o un’intelligenza artificiale incompleta. Ma questa falsa idea (o allucinazione) è stata avanzata da molte persone intelligenti per molti anni.

Nel 1833, i contemporanei di Charles Babbage chiamarono il suo calcolatore meccanico o come lo chiamiamo oggi, un computer meccanico multiuso, una “macchina pensante”. Nel 1949, il pioniere dei computer Edmund Berkeley scrisse V Menti giganti o macchine che pensano:

“Recentemente ci sono state molte notizie su strane macchine giganti che possono manipolare le informazioni con incredibile velocità e destrezza… queste macchine sono come sarebbe il cervello se fosse fatto di hardware e fili invece che di carne e nervi. ..una macchina potrebbe gestire le informazioni; può calcolare, inferire e scegliere; può eseguire operazioni ragionevoli con le informazioni. Quindi una macchina può ragionare.”

READ  Si dice che la versione PS5 Pro sia più veloce di quanto tutti pensino

Altri pionieri del computer, come Maurice Wilkes e Arthur Samuel, credevano che la questione se le macchine possano – o possano mai – pensare sia una questione di come definire il “pensiero”. Purtroppo oggi definire ciò di cui parli è un pensiero molto antico. Ad esempio, il recente sforzo di due anni da parte di un folto gruppo di importanti ricercatori di intelligenza artificiale per creare una linea di base per uno “studio di 100 anni sull’IA” ha dichiarato che non avere una definizione chiara di ciò che studiano è in realtà una buona cosa.

E accusiamo ChatGPT di “allucinazioni”?

Volevo fare la mia indagine, quindi ho chiesto a ChatGPT (rilascio del 14 marzo) qual è la definizione di AGI ed ecco cosa ho ottenuto in risposta:

“Artificial General Intelligence (AGI) si riferisce a un tipo teorico di intelligenza artificiale che possiede capacità cognitive simili a quelle umane, come la capacità di apprendere, ragionare, risolvere problemi e comunicare in linguaggio naturale”.

Ho posto a Bing Chat di Microsoft (presumibilmente basato su ChatGPT) la stessa domanda e ho ricevuto questa risposta:

“Artificial General Intelligence (AGI) è una rappresentazione delle capacità cognitive umane generalizzate nel software in modo che un sistema AGI possa trovare una soluzione di fronte a un compito non familiare. Lo scopo di un sistema AI è quello di eseguire qualsiasi compito che un essere umano può fare [1]. È l’intelligenza delle macchine che consente loro di comprendere, apprendere ed eseguire compiti intellettuali così come gli umani. Utilizzando l’intelligenza artificiale generale, le macchine possono simulare la mente e il comportamento umano per risolvere qualsiasi tipo di problema complesso [2]. “

READ  È stato rilasciato il trailer di gioco per il prossimo campione Vex

A differenza di ChatGPT, Bing Chat cita le proprie fonti e collegamenti. [1] è il sito di notizie di Tech Target; [2] Si tratta di un articolo scritto da un ricercatore di intelligenza artificiale e pubblicato sul sito web di Spiceworks. Per buona misura, Bing aggiunge una terza risorsa (ma la sua risposta non dipende da questo?), l’articolo di Wikipedia su AGI.

Risposte un po’ diverse, ma per la mia umile intelligenza umana, entrambe sono in linea con le allucinazioni di massa e il linguaggio vago riguardo alle macchine pensanti e all’intelligenza artificiale.

Ora, nell’interesse di una completa divulgazione, lascia che ti dica che mi aspettavo che i chatbot provocassero gravi allucinazioni perché mi è venuta l’idea di controllare la loro definizione di AGI dopo aver scoperto quanto fossero disorientati e confusi i loro creatori umani, e dirti la verità, mi aspettavo che anche la loro prole artificiale fosse squilibrata.

Sul sito web di OpenAI, ho trovato questa definizione di AGI: “Sistemi altamente autonomi che superano gli umani nel lavoro economicamente più prezioso”. Non viene fornita alcuna spiegazione per “l’elevata autonomia”, quindi si può concludere che i primi “cervelli giganti” che calcolavano già più velocemente degli umani si qualificano come AGI (Alan Turing stimò nel 1947 che uno di questi cervelli giganti – l’ACE – potesse “lavorare su 10.000 [human] computer”).

Questa “definizione” di AI appare nella carta di OpenAI del 2018 che promette di garantire che l’AGI, che è l’obiettivo finale dell’organizzazione, “vantaggi tutta l’umanità”. Tuttavia, a causa dei recenti sviluppi e della popolarità globale, il CEO di OpenAI Sam Altman ha pubblicato il 24 febbraio 2023 “Pianificazione per l’intelligenza generale artificiale e oltreDove ha rivisto (aggiornato?) la definizione di intelligenza artificiale generale: “Il nostro compito è garantire che l’intelligenza artificiale generale – sistemi di intelligenza artificiale che sono generalmente più intelligenti degli umani –Ne beneficia tutta l’umanità. Come puoi vedere, il collegamento risale alla carta che mostra ancora la definizione precedente.

READ  Per favore, non gettare la tua vecchia Xbox o PlayStation nella spazzatura

L’intelligenza umana è a suo agio con definizioni vaghe, circolari, diverse e persino contraddittorie. L’intelligenza umana si abbandona alle allucinazioni e si è abbandonata dall’avvento della scienza e della tecnologia moderne, specialmente alle allucinazioni sull’uomo come un creatore simile a Dio. Più recentemente, questa allucinazione è stata potenziata per concepire l’uomo come migliore di Dio perché gli uomini e le donne dell’intelligenza artificiale creeranno senza dubbio una macchina intelligente che è più intelligente, più morale e meno prevenuta degli umani.

Impressionato dal fatto che ChatGPT non seguisse il linguaggio confuso e le molteplici definizioni dei suoi creatori, sono tornato indietro e ho chiesto a un buon chatbot: mostra scintille di intelligenza?

“Come modello di intelligenza artificiale del linguaggio, sono stato progettato per imitare l’intelligenza umana in determinate attività, come la creazione di risposte all’input dell’utente. Mi sono allenato su grandi quantità di dati testuali e ho imparato a riconoscere modelli e relazioni nel linguaggio, il che mi consente di creare risposte contestualmente pertinenti e grammaticalmente corrette.

Tuttavia, è importante notare che la mia intelligenza è limitata al compito specifico per il quale sono addestrato e non possiedo lo stesso livello di intelligenza generale o capacità cognitive di un essere umano. Sebbene le mie risposte possano sembrare intelligenti, alla fine sono generate da un insieme di regole programmate e algoritmi statistici, piuttosto che dall’euristica o dalla vera comprensione”.

Forse i ricercatori Microsoft dovrebbero fidarsi del dispositivo.

Seguimi Cinguettio O linkedin. pagando per me sito web.

Ultime notizie
Notizie correlate