I microcontrollori a 16 bit sono più potenti di quelli a 8 bit e quelli a 32 bit sono su un livello completamente diverso. Detto questo, mentre possiamo decidere di quali periferiche abbiamo bisogno per un'applicazione e cercare di trovare l'alternativa più economica (e facile da usare cioè la catena di strumenti), come si fa a sapere se un microcontrollore a 8 bit deve essere utilizzato per un'applicazione o uno a 16 bit o uno a 32 bit?
Capisco le differenze tra di loro, quindi pongo la domanda in un modo diverso.
Diciamo che ho un'applicazione in che avrò un display LCD utilizzato per mostrare un'immagine bitmap, un tastierino a 16 tasti, un cicalino, un sensore di temperatura e umidità e un ingresso del mouse. Un microcontrollore a 8 bit di fascia alta può facilmente fare tutte queste cose in tempo reale. Ora, se passo a un display LCD a colori, potrei aver bisogno di un microcontrollore a 32 bit in grado di aggiornare il display a colori abbastanza rapidamente e avere più memoria. Tuttavia, potrei scoprire che il mio microcontrollore a 8 bit di fascia alta è debole solo dopo averlo provato nel progetto.
Quindi, prima di iniziare a lavorare sul progetto, come facciamo a sapere quale dimensione e quanto potente microcontrollore è necessario per il progetto?