Ik was even benieuwd waar je hier mee op doelt!
Lastig om uit te leggen zonder specifieke kennis.
Laten we het even zo doen:
Automatisering bij zowel Airbus als Boeing is uitgebreid maar dit wil niet zeggen dat er geen ‘gaten’ in het systeem zitten.
Allemaal om het spelletje veiliger te maken maar het wordt wel steeds ondoorzichtiger voor de piloot. In plaats van bv alleen aan en uit wordt de automatiserings logica erg ingewikkeld tot het een niveau bereikt waar de fabrikant besluit dat het niet nodig is om de piloot daar apart voor te training behalve een 30 min iPad presentatie in het geval van het MCAS systeem bij de 737 MAX.
Als piloot moet je er maar op vertrouwen dat er geen fout in de software zit. Er kan altijd een ongewone combinatie van omstandigheden zijn waar de software anders op reageert dan wat je als piloot zou doen en dan kom je voor verrassingen te staan.
Om even cru te zeggen: we hebben dit fantastische systeem om te veiligheid te waarborgen maar het werkt niet als de volgende 9 dingen zich in een bepaalde volgorde presenteren.
Een geval waar de auto throttle niet corrigeerde, dit is nu met een software update wel het geval:
Investigators probing an abrupt manoeuvre by an American Airlines Boeing 757-200 have indicated that the crew suddenly pitched the aircraft nose-down after realising the airspeed had unexpectedly bled away. The aircraft had been approaching New York JFK on 6 September 2018, following a service...
www.flightglobal.com
Dit is een bekend geval van TO/GA dead zone:
en.m.wikipedia.org
Door voortdurende automatisering wordt het actief monitoren van systemen en van de gehele situatie meer passief.
Foutjes presenteren zich op een verraderlijk onschuldige manier en een paar uur later is het ineens een probleem.
Dit zijn problemen met de human-machine interface. Niet uniek aan de luchtvaart trouwens. Alle industrieën waar je een hoge graad van automatisering hebt.