Bit (binary digit)
Der Begriff Bit hat in der Informatik mehrere Bedeutungen. Zum einen ist ein Bit die Bezeichnung einer Binärziffer (also "0" oder "1"), zum anderen gilt Bit als Maßeinheit für die Menge digitaler Daten. Ein Byte beispielsweise besteht aus 8 Bit. Demzufolge besteht das wohl jedem bekannte MegaByte aus 8 Millionen Bit. Bit ist somit im gesamten System die kleinste Maßeinheit für digitale Daten.
Bit ist eine Wortkreuzung aus binary und digit, was aus dem englischen übersetzt soviel bedeuted wie Binärziffer. Der Begriff wurde bereits 1946 vom Mathematiker John W. Tukey vorgeschlagen und seit jeher verwendet.
Im Inneren eines Computers wird vor allem mit Zuständen gerechnet "LOW" = 0 und "HIGH" = 1. Wobei "LOW" und "HIGH" zwei vorher definierte Spannungswerte sind. Durch das Umschalten zwischen diesen zwei Zuständen können Nachrichtenfolgen und Befehle codiert werden. Natürlich müssen heutige Computerprogrammierer sich nicht mehr mit Nullen und Einsen quälen, da sie auf bereits bestehende Basissysteme aufbauen können. Als der Computer erfunden wurden waren es aber Informatik - Pioniere, welche die ersten Computerprogramme unter solchen schwierigen Bedinungungen zum Funktionieren gebracht haben. Leider ist es heutzutage so, dass kaum ein Programmierer mehr im Zweiersystem rechnen kann und ihm somit das Grundverständnis der Basis fehlt. Programmierer sind durch aktuellste Programme und so weiter aber verwöhnt und können durch umfangreiche Editoren einfache Programme in Sekunden zaubern.
Natürlich werden auch zur Datenübertragung über WLAN und kabelgebundene Übertragungsmedien Binärcodes verwendet. Durch einige Verfahren ist es sogar möglich Fehler in der Übertragung zu erkennen und diese gar auszubessern. Ein nennenswertes Verfahren ist hier CRC. Durch eine Division der übertragenen Bits mit einer Prüfsumme wird kontrolliert ob beide Bitfolgen gleich sind. Ist das Ergebnis der Division Null, so sind beide Bitfolgen gleich und die Übertragung funktionierte fehlerfrei.
Bit ist eine Wortkreuzung aus binary und digit, was aus dem englischen übersetzt soviel bedeuted wie Binärziffer. Der Begriff wurde bereits 1946 vom Mathematiker John W. Tukey vorgeschlagen und seit jeher verwendet.
Im Inneren eines Computers wird vor allem mit Zuständen gerechnet "LOW" = 0 und "HIGH" = 1. Wobei "LOW" und "HIGH" zwei vorher definierte Spannungswerte sind. Durch das Umschalten zwischen diesen zwei Zuständen können Nachrichtenfolgen und Befehle codiert werden. Natürlich müssen heutige Computerprogrammierer sich nicht mehr mit Nullen und Einsen quälen, da sie auf bereits bestehende Basissysteme aufbauen können. Als der Computer erfunden wurden waren es aber Informatik - Pioniere, welche die ersten Computerprogramme unter solchen schwierigen Bedinungungen zum Funktionieren gebracht haben. Leider ist es heutzutage so, dass kaum ein Programmierer mehr im Zweiersystem rechnen kann und ihm somit das Grundverständnis der Basis fehlt. Programmierer sind durch aktuellste Programme und so weiter aber verwöhnt und können durch umfangreiche Editoren einfache Programme in Sekunden zaubern.
Natürlich werden auch zur Datenübertragung über WLAN und kabelgebundene Übertragungsmedien Binärcodes verwendet. Durch einige Verfahren ist es sogar möglich Fehler in der Übertragung zu erkennen und diese gar auszubessern. Ein nennenswertes Verfahren ist hier CRC. Durch eine Division der übertragenen Bits mit einer Prüfsumme wird kontrolliert ob beide Bitfolgen gleich sind. Ist das Ergebnis der Division Null, so sind beide Bitfolgen gleich und die Übertragung funktionierte fehlerfrei.