Une séquence d’octets de longueur variable, comme dans la Notation Syntaxique abstraite One (ASN.1), est appelée chaîne d’octet.
La norme internationale CEI 60027-2, chapitre 3.8.2, stipule qu’un octet est un octet de bits. Cependant, l’octet unitaire a toujours été dépendant de la plate-forme et a représenté différentes tailles de stockage dans l’histoire de l’informatique. En raison de l’influence de plusieurs architectures informatiques et lignes de produits majeures, l’octet est devenu massivement associé à huit bits. Cette signification de l’octet est codifiée dans des normes telles que ISO / CEI 80000-13. Alors que l’octet et l’octet sont souvent utilisés comme synonymes, ceux qui travaillent avec certains systèmes hérités veillent à éviter toute ambiguïté.
Les octets peuvent être représentés à l’aide de systèmes de nombres de bases variables tels que les systèmes de nombres hexadécimaux, décimaux ou octaux. La valeur binaire des huit bits définis (ou activés) est 111111112, égale à la valeur hexadécimale FF16, à la valeur décimale 25510 et à la valeur octale 3778. Un octet peut être utilisé pour représenter des valeurs décimales allant de 0 à 255.
Le terme octet (symbole: o) est souvent utilisé lorsque l’utilisation de l’octet peut être ambiguë. Il est fréquemment utilisé dans les publications de Request for Comments (RFC) de l’Internet Engineering Task Force pour décrire les tailles de stockage des paramètres de protocole réseau. Le premier exemple est la RFC 635 de 1974. En 2000, Bob Bemer a affirmé avoir déjà proposé l’utilisation du terme octet pour « octets 8 bits » lorsqu’il dirigeait les opérations logicielles pour Cie. Bull en France en 1965-1966.
En France, au Canada français et en Roumanie, l’octet est utilisé dans le langage courant au lieu de l’octet lorsque le sens 8 bits est requis, par exemple, un mégaoctet (MO) est appelé mégaoctet (Mo).