Cześć. Niełatwego zadania się podjęłaś. :)
Na Twoim miejscu zacząłbym od zajrzenia do książek informatyki dla najmłodszych - niestety nie wiem, w której klasie pojawia się taki przedmiot i jakie podręczniki są obowiązujące - ale myślę że tutaj byłby dobry punkt wyjścia.
Otóż najpierw chcę wyjść od tego, iż komputer aby mógł być komputerem musi spełniać 4 podstawowe funkcje (zgodnie z budową logiczna komputera wg von Neumana) musi pobierać z zewnątrz informacje, następnie przechowywać je, dalej przetwarzać, a następnie przekazywać wynik na zewnątrz.
Ja to bym w ogóle zaczął od powiedzenia tym młodym ludziom, że komputer to tak naprawdę wielki kalkulator, który "zna" tylko liczby.
w momencie wciśnięcia 'A' na klawiaturze litera jest tłumaczona na liczbę (tablica ASCII się kłania) i tutaj jest właśnie mój frasunek jak to się dzieje to tłumaczenie na liczbę przecież klawiatura nie ma swojej odrębnej pamięci ona nie trzyma kodów ASCII dzieje się to wszystko w procesorze
Klawiatura wysyła do jednostki centralnej dane o wciśniętych klawiszach po magistrali szeregowej, czyli w jakiejś znormalizowanej formie. Każdy klawisz ma przypisany swój własny unikalny numer, który wcale nie musi mieć nic wspólnego z ASCII. Dopiero sterownik (po stronie BIOS lub OS) zacznie interpretować otrzymywane z klawiatury kody tak, żeby zrobić z tego jakiś użytek. W samej klawiaturze istnieje nieskomplikowany układ mikroprocesorowy z własną pamięcią, który wciśnięcia przycisków wysyła po magistrali jako odpowiednie numery.
właśnie kolejna zagwozdka kiedy ta liczba jest tłumaczona na ciąg 0 i 1
Nigdy. :) Kiedy odpowiedni kod przycisku zostaje wysłany po magistrali szeregowej, on już pierwotnie jest binarny - bo w klawiaturze siedzi mikroprocesor, a ten zna tylko język zer i jedynek. To dopiero w procesie prezentacji danych cokolwiek z pamięci zostaje nam - ułomnym ludziom - przedstawione jako niebinarne.