Καταγγελία Κοκοτσάκη: Τα δύο βίντεο δημιουργήθηκαν στις 7 Φεβρουαρίου 2025

Τι αναφέρει ο εμπειρογνώμονας του Συλλόγου Οικογενειών Θυμάτων των Τεμπών

Parallaxi
καταγγελία-κοκοτσάκη-τα-δύο-βίντεο-δη-1278291
Parallaxi

Με μία ανάρτηση στον προσωπικό του λογαριασμό στο Facebook, ο εμπειρογνώμονας του Συλλόγου Οικογενειών Θυμάτων των Τεμπών και ειδικός πραγματογνώμονας, Βασίλης Κοκοτσάκης, προχωρά σε σοβαρές καταγγελίες σχετικά με τα δύο βίντεο, που σύμφωνα με την εταιρεία Interstat Security, απεικονίζουν την εμπορική αμαξοστοιχία λίγα λεπτά πριν τη σύγκρουσή της με το Intercity 62.

Ο κ. Κοκοτσάκης, ανέφερε χαρακτηριστικά πως «κατεβάσαμε τα δύο βίντεο από την ακόλουθη πηγή (Καθημερινή ) και με χρήση του εργαλείου ExifTool μπορούμε να δούμε ότι τα βίντεο από τις δύο κάμερες, (νο.4 και νο.5) δημιουργήθηκαν στις 7 Φεβρουαρίου 2025, (πιθανώς από τον τελευταίο τεχνικό που τα επεξεργάστηκε, ίσως στην Καθημερινή (το άρθρο είναι της αυτής ημερομηνίας)».

Αναλυτικά η ανάρτηση:

«Σχετικά με την δυνατότητα πιστοποίησης ή μη, της γνησιότητας των πρόσφατα δημοσιευμένων βίντεο, που φέρεται να παρουσιάζουν την εμπορική αμαξοστοιχία 63503 μέσα σε σήραγγες λίγα λεπτά πριν από τη μετωπική σύγκρουση με το Intercity τη νύχτα της 28ης Φεβρουαρίου 2023, ακολουθεί η επιστημονική άποψη πολλών εκ των συνεργατών μου αλλά και με βάση την βιβλιογραφία στην πληροφορική και την τεχνολογία πολυμέσων:

1). Η διαπίστωση της αυθεντικότητας ενός βίντεο είναι μια σύνθετη διαδικασία, και απαιτεί βασικά βήματα που πρέπει να ακολουθηθούν για την αξιολόγηση:

1.1. Έλεγχος της πηγής από την οποία προέρχεται το βίντεο. 1.2. Ανάλυση Μεταδεδομένων (metadata) του βίντεο, τα οποία μπορούν να δώσουν πληροφορίες σχετικά με την ημερομηνία, την ώρα και τη συσκευή που χρησιμοποιήθηκε για την καταγραφή. Εργαλεία όπως το Exif Tool μπορούν να εξάγουν αυτές τις πληροφορίες. 1.3. Αντίστροφη Αναζήτηση Εικόνας/Βίντεο, με εργαλεία όπως το Google Reverse Image Search ή το TinEye ελέγχεται αν το βίντεο ή κάποια από τα καρέ του έχουν χρησιμοποιηθεί στο παρελθόν. 1.4. Ανάλυση Περιεχομένου του βίντεο για ασυνέπειες, όπως αφύσικο φωτισμό, σκιές που δεν ταιριάζουν ή αντιφάσεις στο χρονικό πλαίσιο. 1.5. Εργαλεία Ανίχνευσης Deepfakes, (τεχνητή νοημοσύνη που δημιουργεί ρεαλιστικά ψεύτικα βίντεο), με εργαλεία όπως το Deepware Scanner ή το Sensity AI για ανάλυση.

2). Με δεδομένη την άγνοια της πηγής των βίντεο και απουσία του αρχικού πηγαίου βίντεο, η πιστοποίηση καθίσταται εξαιρετικά δύσκολη ειδικά αν έχουν επέμβει τεχνικοί ακόμα και για την παραμικρή επεξεργασία.

Για παράδειγμα, κατεβάσαμε τα δύο βίντεο από την ακόλουθη πηγή (Καθημερινή ) και με χρήση του εργαλείου ExifTool μπορούμε να δούμε ότι τα βίντεο από τις δύο κάμερες, (νο.4 και νο.5) δημιουργήθηκαν στις 7 Φεβρουαρίου 2025, (πιθανώς από τον τελευταίο τεχνικό που τα επεξεργάστηκε, ίσως στην Καθημερινή (το άρθρο είναι της αυτής ημερομηνίας))

Στην εποχή λοιπόν της Τεχνητής Νοημοσύνης και με πληθώρα εργαλείων επεξεργασίας εικόνας καθίσταται ακόμη πιο δύσκολη η επιβεβαίωση της αυθεντικότητας, σε βαθμό που θα μπορούσε μια έμπειρη ομάδα να αλλοιώσει στοιχεία των βίντεο (π.χ. ημερομηνίες) και το νέο βίντεο να κατατεθεί ως τεκμήριο στο δικαστήριο, με χαμηλή ως ανύπαρκτη φερεγγυότητα, εφόσον δεν έχει εξασφαλιστεί η μοναδικότητα και η αυθεντικότητα της πηγής και μάλιστα όταν καλούνται να το εξετάσουν μη ειδικοί και μη σχετικοί με το αντικείμενο.

Εν κατακλείδι, χωρίς διασφάλιση της αυθεντικότητας της πηγής, την χρήση Ψηφιακής Υπογραφής ή/και Έλεγχος Blockchain, μπορεί να γίνει επιτηδευμένη “αλλοίωση” του βίντεο καθιστώντας πολύ δύσκολη τη διαδικασία πιστοποίησης, ειδικά όταν υπάρχει και η άνεση του χρόνου (δύο χρόνια μετά το συμβάν)».

Σχετικά Αρθρα
Σχετικά Αρθρα