نظام سلامة حرجة

أمثلة على[1]أنظمة السلامة الحرجة. من اليسار إلى اليمين، من أعلى إلى أسفل: قمرة القيادة الزجاجية لـ C-141، ومنظم ضربات القلب، ومكوك الفضاء وغرفة التحكم في محطة طاقة نووية.

نظام السلامة الحرجة إنگليزية: safety-critical system (SCS)[2]أو نظام الحياة الحرجة هو نظام قد يؤدي إخفاقه أو تعطله إلى واحد (أو أكثر) من النتائج التالية:[3][4]

  • الموت أو إصابة الناس بجروح خطيرة
  • خسارة أو ضرر شديد للمعدات/الممتلكات
  • ضرر بيئي

يشتمل النظام المتعلق بالسلامة (أو أحياناً النظام المعني بالسلامة) على كل الأمور (الأجهزة والبرامج والجوانب البشرية) اللازمة لأداء وظيفة أو أكثر من وظائف السلامة، والتي قد يتسبب الفشل فيها لزيادة كبيرة في مخاطر السلامة للأشخاص أو البيئة المعنية.[5] الأنظمة المتعلقة بالسلامة هي تلك التي لا تتحمل المسؤولية الكاملة للتحكم في المخاطر مثل فقدان الأرواح أو الإصابة الشديدة أو الضرر البيئي. قد يكون خلل نظام متعلق بالسلامة بهذه الخطورة فقط بالتزامن مع فشل الأنظمة الأخرى أو خطأ بشري. كما تقدم بعض منظمات السلامة إرشادات بشأن الأنظمة المتعلقة بالسلامة، على سبيل المثال الصحة والسلامة المهنية (HSE) في المملكة المتحدة.[6]

عادة ما تتم إدارة المخاطر من هذا النوع بأساليب وأدوات هندسة السلامة. تم تصميم نظام الأمان الحرج بحيث يخسر أقل من عمر واحد لكل مليار (109) ساعة من التشغيل.[7][8] كما تتضمن طرق التصميم النموذجية تقييم المخاطر الاحتمالية، وهي طريقة تجمع بين تحليل نمط وآثار الإخفاق (FMEA) مع تحليل شجرة الأخطاء. وتعتمد أنظمة السلامة الحرجة على الحواسيب بشكل متزايد.

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

أنظمة الموثوقية

توجد عدة أنظمة موثوقية لأنظمة السلامة الحرجة:

  • تستمر أنظمة فشل التشغيل في العمل عندما تفشل أنظمة التحكم الخاصة بها. ومن الأمثلة على ذلك المصعد ومنظم حرارة الغاز الموجود في معظم الأفران المنزلية و المفاعلات النووية ذات السلامة السلبية. يكون وضع فشل التشغيل غير آمن في بعض الأحيان. كما رُفض إطلاق الأسلحة النووية عند فقدان الاتصالات كنظام تحكم للقوات النووية الأمريكية لأنه فشل في التشغيل: قد يؤدي فقدان الاتصالات في الإطلاق، لذلك تم اعتبار طريقة التشغيل هذه محفوفة بالمخاطر أيضاً. كما يتناقض هذا مع سلوك الفشل المميت لنظام پرِمتر الذي تم بناؤه خلال الحقبة السوڤيتية.[9]
  • يمكن لأنظمة الفشل المرنة الاستمرار في العمل على أساس مؤقت بكفاءة منخفضة في حالة الفشل.[10]معظم الإطارات الاحتياطية هي مثال على ذلك: عادةً ما تأتي مع قيود معينة (مثل قيود السرعة) وتؤدي إلى انخفاض الاقتصاد في استهلاك الوقود. مثال آخر هو "الوضع الآمن" الموجود في معظم أنظمة تشغيل وندوز.
  • تصبح أنظمة الفشل الآمن موثوقة وآمنة عندما لا يمكنها العمل. وتندرج العديد من الأنظمة الطبية في هذه الفئة. على سبيل المثال، يمكن أن تفشل مضخة حقن المحاليل، وطالما أنها تنبه الممرضة وتتوقف عن الضخ، فإنها لن تهدد بخسارة الأرواح لأن فترة أمانها طويلة بما يكفي للسماح باستجابة بشرية. على نفس المنوال، يمكن أن تفشل وحدة التحكم في الموقد الصناعية أو المحلية، ولكن يجب أن تفشل في الوضع الآمن (أي إيقاف الاحتراق عند اكتشاف الأعطال). ومن المعروف أن أنظمة الأسلحة النووية التي يتم إطلاقها عند القيادة آمنة من الفشل، لأنه إذا فشلت أنظمة الاتصالات، فلا يمكن التحكم في الإطلاق. كما تم تصميم إشارات السكك الحديدية لتكون آمنة من الأعطال.
  • تحافظ أنظمة الفشل الموثوق على أقصى درجات الأمان عندما لا تستطيع العمل. على سبيل المثال، أثناء فتح الأبواب الإلكترونية الآمنة أثناء انقطاع التيار الكهربائي، سيتم قفل عناصر نظام (الأبواب) الفشل الموثوق، مما يحافظ على المنطقة آمنة.
  • تستمر أنظمة الفشل الغير فعالة في العمل في حالة فشل النظام. كمثال تحتوي الطائرة على نظام الطيار الآلي. في حالة حدوث عطل، ستبقى الطائرة في حالة يمكن التحكم فيها وتسمح للطيار بتولي المهمة وإكمال الرحلة والقيام بهبوط آمن.
  • تتجنب الأنظمة المتسامح مع الأخطاء فشل الخدمة عند إدخال أخطاء في النظام. من الأمثلة على ذلك أنظمة التحكم في المفاعلات النووية العادية. وتتمثل الطريقة العادية لتحمل الأعطال في جعل العديد من أجهزة الحاسب تختبر باستمرار أجزاء النظام، وتشغيل قطع غيار جديدة لفشل الأنظمة الفرعية. طالما يتم استبدال الأنظمة الفرعية ذات العيوب أو إصلاحها في فترات الصيانة العادية، فإن هذه الأنظمة تعتبر آمنة. يجب مضاعفة أجهزة الحاسب وإمدادات الطاقة ومحطات التحكم التي يستخدمها البشر في هذه الأنظمة بطريقة ما.


هندسة البرمجيات لأنظمة السلامة الحرجة

تعتبر هندسة البرمجيات لأنظمة السلامة الحرجة أمراً صعباً بشكل خاص. هناك ثلاثة جوانب يمكن تطبيقها لمساعدة البرامج الهندسية للأنظمة الحيوية.

  • أولاً هو هندسة العمليات والإدارة.
  • ثانياً، اختيار الأدوات والبيئة المناسبة للنظام. يسمح هذا لمطور النظام باختبار النظام بفعالية من خلال محاكاة ومراقبة فعاليته. * ثالثاً، تناول أي متطلبات قانونية وتنظيمية، مثل متطلبات FAA للطيران.

من خلال وضع معيار يتطلب تطوير نظام بموجبه، فإنه يجبر المصممين على الالتزام بالمتطلبات. نجحت صناعة إلكترونيات الطيران في إنتاج طرق قياسية لإنتاج برمجيات إلكترونيات طيران حرجة. توجد معايير مماثلة للصناعة بشكل عام (IEC 61508) والسيارات (ISO 26262) والصناعات الطبية (IEC 62304) والصناعات النووية (IEC 61513) على وجه التحديد. يتمثل النهج القياسي في ترميز النظام وفحصه وتوثيقه واختباره والتحقق منه وتحليله بعناية. وهناك طريقة أخرى تتمثل في اعتماد نظام إنتاج، مترجم، ثم إنشاء كود النظام من المواصفات. تستخدم طريقة أخرى الطرق الشكلية لتوليد البراهين بأن الكود يفي بالمتطلبات.[11]كما تعمل كل هذه الأساليب على تحسين جودة البرمجيات في أنظمة السلامة الحرجة عن طريق اختبار أو إلغاء الخطوات اليدوية في عملية التطوير، لأن الناس يرتكبون أخطاء، وهذه الأخطاء هي السبب الأكثر شيوعاً للأخطاء المحتملة التي تهدد الحياة.

أمثلة على أنظمة السلامة الحرجة

البنية التحتية

الطب[12]

يمكن أن تتجاوز متطلبات التكنولوجيا تجنب الفشل، بل ويمكن أن تسهل العناية المركزة الطبية (التي تتعامل مع معافاة المرضى)، وكذلك حفظ الحياة (للحفاظ على الاستقرار المرضى).

الهندسة النووية[14]

الأنشطة الترفيهية

النقل

السكك الحديدية[15]

السيارات[17]


. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

الطيران[18]

ارتياد الفضاء[19]

انظر أيضاً

المراجع

  1. ^ J.C. Knight (2002) (in en). Safety critical systems: challenges and directions. IEEE. pp. 547–550. Archived from the original. You must specify the date the archive was made using the |archivedate= parameter. https://ieeexplore.ieee.org/document/1007998. 
  2. ^ "Safety-critical system". encyclopedia.com. Retrieved 15 April 2017.
  3. ^ Sommerville, Ian (2015). Software Engineering (PDF). Pearson India. ISBN 978-9332582699. Archived from the original (PDF) on 2018-04-17. Retrieved 2018-04-18.
  4. ^ Sommerville, Ian (2014-07-24). "Critical systems". an Sommerville's book website. Archived from the original on 2019-09-16. Retrieved 18 April 2018.
  5. ^ "FAQ – Edition 2.0: E) Key concepts". IEC 61508 – Functional Safety. International Electrotechnical Commission. Retrieved 23 October 2016.
  6. ^ "Part 1: Key guidance" (PDF). Managing competence for safety-related systems. UK: Health and Safety Executive. 2007. Retrieved 23 October 2016.
  7. ^ FAA AC 25.1309-1A – System Design and Analysis
  8. ^ Bowen, Jonathan P. (April 2000). "The Ethics of Safety-Critical Systems". Communications of the ACM. 43 (4): 91–97. doi:10.1145/332051.332078. S2CID 15979368.
  9. ^ Thompson, Nicholas (2009-09-21). "Inside the Apocalyptic Soviet Doomsday Machine". WIRED.
  10. ^ "Definition fail-soft".
  11. ^ Bowen, Jonathan P.; Stavridou, Victoria (July 1993). "Safety-critical systems, formal methods and standards". Software Engineering Journal. IEE/BCS. 8 (4): 189–209. doi:10.1049/sej.1993.0025. S2CID 9756364.
  12. ^ "Medical Device Safety System Design: A Systematic Approach". mddionline.com. 2012-01-24.
  13. ^ Anderson, RJ; Smith, MF, eds. (September–December 1998). "Special Issue: Confidentiality, Privacy and Safety of Healthcare Systems". Health Informatics Journal. 4 (3–4).
  14. ^ "Safety of Nuclear Reactors". world-nuclear.org.
  15. ^ "Safety-Critical Systems in Rail Transportation" (PDF). Rtos.com. Archived from the original (PDF) on 2013-12-19. Retrieved 2016-10-23.
  16. ^ أ ب Wayback Machine
  17. ^ "Safety-Critical Automotive Systems". sae.org.
  18. ^ Leanna Rierson (2013-01-07). Developing Safety-Critical Software: A Practical Guide for Aviation Software and DO-178C Compliance. ISBN 978-1-4398-1368-3.
  19. ^ "Human-Rating Requirements and Guidelinesfor Space Flight Systems" (PDF). NASA Procedures and Guidelines. June 19, 2003. NPG: 8705.2. Retrieved 2016-10-23.

وصلات خارجية