Les ordinateurs sont très bon pour travailler sur des bits... mais assez ironiquement assez mauvais pour faire de l'arithmétique (d'où l'intérêt des GPU).
Par exemple, décaler d'un bit vers la droite équivaut à une division par deux, mais est plus rapide.
Toutefois, méfiez-vous de ces optimisations: De nos jours, les compilateurs sont capables d'optimisations bien plus poussées que ce que vous pourriez faire à la main. Il vaut souvent mieux, désormais, les laisser optimiser. L'autre inconvénient de ces bidouilles de bits est que cela réduit la portabilité des applications.
EDIT: Comme le fait remarquer
http://fspot.org/lnk/?8Ag_LA, cela n'est valable que pour des langages bas niveau comme C, pas pour des langages comme Python:
http://wiki.python.org/moin/PythonSpeed/PerformanceTips#Python_is_not_C