السلام عليكم ورحمة الله وبركاته.

أعمل على خوارزمية لصيغة جديدة للملفات لبرنامج متعدد المنصات عملت عليه لمدة طويلة، بعدما اخترتُ أخيرًا UTF-8 بدلًا من UTF-16 كترميز ثابت لهذه الصيغة، احترتُ بين CRLF أو LF للسطور الجديدة، من المنطقي أن يكون Byte واحد أفضل من اثنين(توفيرًا للذاكرة) لكن أتوفير Byte لكل سطر حقًا توفير! أأتبع LF كما UNIX أم CRLF كما ويندوز، ولم أفهم لما يستخدمون CRLF بعيدًا عن استخدامها لتوجيه الأوامر للطابعات للعودة والسطر الجديد -جل ما وجدته-، لما برتوكول HTTP مثلًا يستخدمها! RFC2616[1]


على الجانب:

  1. LF أو Line Feed هو البايت الحادي عشر(العاشر إذا عددنا من الصفر) في ترميز الـASCII والمتوافق معه، ويكتب \n في أغلب التعابير القياسية/سلاسل النصوص أو \a(أو 0xA) في بعضها بالنظام الستُ عشري.

  2. CR أو Carriage Return هو البايت الرابع عشر(الثالث عشر إذا عددنا من الصفر) في ترميز الـASCII والمتوافق معه، ويكتب \r في أغلب .. أو \D(أو 0XD) في بعضها بالنظام ..

https://www.w3.org/Protocol...