Microsoft sta aggiungendo un modello di modello AI automatico al codice Visual Studio che sceglierà il modello più performante per il suo Github Copilot servizio. La nuova funzionalità darà la priorità Sonetto Claude 4 di Antropic Sopra Openi’s GPT-5 Per la maggior parte degli utenti, secondo gli annunci aziendali e le direttive interne.
Come funziona il selettore del modello AI
Il selettore valuterà e sceglierà automaticamente tra una gamma di modelli, tra cui Claude 4 Sonet, GPT-5 e GPT-5 Mini. Gli utenti della versione gratuita di Github Copilot saranno in grado di selezionare manualmente dai modelli disponibili. Tuttavia, per gli abbonati a pagamento, il sistema sarà default a Claude 4 Sonnet, indicando la preferenza di Microsoft per il modello nei suoi strumenti per sviluppatori. Questa mossa è coerente con la strategia interna di Microsoft. Fonti che hanno familiarità con i piani dell’azienda hanno affermato che Microsoft ha indirizzato i propri sviluppatori a utilizzare Claude 4 Sonnet per diversi mesi. La guida ha avuto origine da un’e -mail di giugno inviata da Julia Liuson, capo della divisione sviluppatore di Microsoft.
“Basato su parametri di riferimento interni, Claude 4 Sonnet è il nostro modello consigliato per il copilota Github.”
Questa raccomandazione è rimasta in atto anche dopo il rilascio della serie GPT-5 più avanzata di Openai, poiché i successivi test hanno confermato le prestazioni superiori di Claude 4 Sonnet sui benchmark specifici per le attività di copilota GitHub.
La più ampia strategia di intelligenza artificiale di Microsoft e lo sviluppo interno
Microsoft sta inoltre integrando i modelli di antropici nel suo copilota Microsoft 365 per alcune attività in Excel e PowerPoint, dove secondo quanto riferito hanno sovraperformato i modelli di Openi durante i test. Oltre a queste partnership, Microsoft continua a costruire le proprie capacità di intelligenza artificiale. In un recente municipio dei dipendenti, il capo Microsoft AI Mustafa Suleyman ha discusso degli investimenti dell’azienda nella propria infrastruttura. Ha detto che un’anteprima del suo modello MAI-1 è stata addestrata su un cluster relativamente piccolo di 15.000 GPU H100, segnalando piani per cluster molto più grandi in futuro.
“Faremo anche investimenti significativi nel nostro cluster. Quindi oggi, Mai-1-Preview è stato addestrato solo su 15.000 H100, un piccolo cluster nel grande schema delle cose.”
La notizia arriva quando Openai e Microsoft hanno annunciato un nuovo accordo la scorsa settimana, un accordo che potrebbe aiutare a risolvere i dettagli operativi e facilitare il potenziale passaggio di Openi verso un’offerta pubblica iniziale.





