Hej. Zacząłem się dziś zastanawiać nad typami zmiennych. Mamy kilka typów dla wartości liczbowych, między innymi int, byte czy long. Wiadomo, te typy różnią się zakresem jak i możliwością przyjmowania wartości ujemnych. Oglądając tutoriale (czy to z c#, czy z c++) zawsze widziałem jak dosłownie każdy naukę zaczyna od inta i mam kilka pytań z tym związanych.
1. Dlaczego ten int jest tak wałkowany?
Tak na chłopski rozum, po co zajmować pamięć większymi typami zmiennych (bo rozumiem że to tak działa), zamiast np w pętli w którym zmienna nie przekroczy 10 używać typu który do tego w 100% wystarczy? Dlaczego praktycznie zawsze się widzi (for int i=1;i<=10;i++) zamiast np. (for byte i=1;i<=10;i++)?
2. Czy faktycznie w pracy zwraca się na to uwagę?
To moje drugie pytanie, czy podczas tworzenia projektów zwraca się na to uwagę, czy się używa byte, int, short? Czy lepiej na sztywno przyjąć że używamy tego inta zamiast typów mniejszych i nie zawracać sobie tym głowy?