En type data, som JavaScript forstår, er nummerdatatypen. Tallene kan være positive eller negative, såvel som hele tal eller decimaltal. Numre gemmes i variabler uden at bruge citatmærker.
Udvalget af mulige tal, der kan bruges i JavaScript, går fra meget, meget lille til meget, meget stort. Det største antal, du kan bruge i JavaScript, er langt større end antallet af stjerner i universet. Det er endnu større end antallet af atomer i universet! JavaScript kan gøre noget matematisk problem eller tælle problem, som du vil have det til at gøre.
En ting at passe på er imidlertid, hvad der sker, når du forsøger at kombinere to forskellige datatyper, såsom strenge og tal.
JavaScript forsøger generelt at være ret smart. Hvis du åbner konsollen og skriver "10" + 10 , antager JavaScript, at du betød, at begge dele af data skal være strenge og sætter dem sammen og giver dig resultatet 1010.
On På den anden side, hvis du skriver 10 * "10" , antager JavaScript, at du mente at strengen "10" faktisk er nummeret 10, og det vil give dig resultatet 100. JavaScript gør dette fordi det ved, at der ikke er nogen måde at formere to strenge sammen.