netweek - Big Data ή Big Trash;

Παρασκευή, 10 Ιουλίου 2020

ΔΙΑΦΗΜΙΣΗ

IT Industry

Big Data ή Big Trash;

11 Ιουνίου 2020 | 07:35 Γράφει ο Γιάννης  Μουρατίδης Topics: Analytics,Artificial Intelligence,IT Operations,Special Reports,Trends

Η συσσώρευση ψηφιακών δεδομένων είναι μια από τις τάσεις που έχει δημιουργήσει η σύγχρονη τεχνολογία. Ένα από τα ερωτήματα που απασχολούν τις διοικήσεις των επιχειρήσεων είναι αν η αξία των δεδομένων δικαιολογεί σε κάθε περίπτωση το κόστος συλλογής, φύλαξης και επεξεργασίας τους.

Μια από τις απειλές του προέδρου των ΗΠΑ προς την Ευρώπη, αν αυτή ανοίξει τις πόρτες της στη Huawei, ήταν ότι θα διακόψει τη ροή πληροφοριών που συλλέγονται από τις μυστικές υπηρεσίες. Οι πληροφορίες στις οποίες αναφέρονται οι ΗΠΑ έχουν τεράστιο κόστος παραγωγής, καθώς για τη συλλογή και την επεξεργασία τους χρησιμοποιείται πανάκριβος εξοπλισμός και ένα ακριβοπληρωμένο ανθρώπινο δυναμικό. Συγκρίνοντας ένα bit αυτών των πληροφοριών σε σχέση με το bit που θα συλλέξει ένας αισθητήρας στο χωράφι ή ένας άλλος στη μηχανή ενός πλοίου, θα διαπιστώσουμε ότι το κόστος παραγωγής του πρώτου είναι δεκάδες χιλιάδες φορές μεγαλύτερο.

Αυτό δε σημαίνει ότι τα bit από το χωράφι ή τη μηχανή του πλοίου είναι άχρηστα ή ότι όλα τα bit των μυστικών υπηρεσιών είναι πολύτιμα. Σε κάθε περίπτωση υπάρχουν σκουπίδια πληροφορίας που χρειάζεται να βγουν από το μείγμα για να έχουμε ένα αξιόλογο αποτέλεσμα. Θα λέγαμε μάλιστα ότι στην περίπτωση των υπηρεσιών πληροφοριών πρόκειται για πολύ ακριβά σκουπίδια.

Ωστόσο, ο προϋπολογισμός των ΗΠΑ για θέματα εθνικής ασφάλειας δεν έχει καμία σχέση με τον προϋπολογισμό ακόμα και των μεγαλύτερων παγκόσμιων επιχειρήσεων. Επομένως, οι δεύτερες είναι αυτές που χρειάζεται να προσέχουν περισσότερο την ποιότητα των πληροφοριών που συλλέγουν, ώστε να μην αποθηκεύουν ή ακόμα χειρότερα να μην αναλύουν πληροφορίες – σκουπίδια. Διαχωρίζουμε την αποθήκευση από την ανάλυση, δεδομένου ότι η επεξεργασία των δεδομένων είναι πολύ ακριβότερη σε σχέση με την αποθήκευσή τους και επιπλέον έχει μεγαλύτερο περιβαλλοντικό αποτύπωμα.

Περιβαλλοντικό αποτύπωμα, αλλά και φουσκωμένοι λογαριασμοί
Το Νοέμβριο του 2014, μια ομάδα ειδικευμένων επιστημόνων ανέλαβε για λογαριασμό των Ηνωμένων Εθνών την εκπόνηση μιας μελέτης σχετικά με λύσεις που θα μπορούσαν να συνδυάσουν την εκθετική αύξηση της συλλογής και ανάλυσης πληροφοριών με τη βιώσιμη ανάπτυξη. Ένα από τα βασικά συμπεράσματα της μελέτης, είναι ότι τα Big Data έχουν ένα ιδιαίτερα βαρύ περιβαλλοντικό αποτύπωμα, καθώς για την παραγωγή και τη φύλαξη τους αξιοποιείται κυρίως ενέργεια που προέρχεται από ορυκτά καύσιμα.

Οι μεγάλες εταιρείες διαχείρισης δεδομένων, όπως οι Amazon, Google, Facebook και Microsoft είχαν συνειδητοποιήσει αρκετά νωρίτερα το πρόβλημα και τον αντίκτυπο που θα μπορούσε να έχει στο κοινωνικό σύνολο, δηλαδή τους εν δυνάμει πελάτες τους και φρόντισαν να επενδύσουν σε υποδομές εναλλακτικών πηγών ενέργειας, ώστε να καλύψουν σε κάποιες περιπτώσεις μέχρι και το 100% των αναγκών τους.

Στην ίδια μελέτη γίνεται η εκτίμηση ότι από το 2005 έως το 2020, το ψηφιακό σύμπαν θα διογκωθεί από τα 130 exabytes στα 40.000 exabytes. Σύμφωνα με πιο σύγχρονες μετρήσεις έχουμε ήδη ξεπεράσει αυτό το μέγεθος και επιπλέον αν η πρόβλεψη της IDC είναι σωστή, σχετικά με την ανάπτυξη του Internet of Things, μέχρι το 2025 θα έχουμε φτάσει τα 163 zettabytes.

Είναι φυσικό ότι μέσα σε αυτή την τεράστια ποσότητα πληροφορίας θα υπάρχει ένα ποσοστό σκουπιδιών, δηλαδή πληροφορίες που ακόμα και αν δεν τις είχαμε συλλέξει δεν θα επηρέαζαν σημαντικά το αποτέλεσμα της ανάλυσης μας ή σε ένα πιο δυσάρεστο σενάριο, η χρήση τους δημιούργησε σφάλμα στην ανάλυσή μας.

Ένας υπολογιστής, πριν από την εξέλιξη των αλγόριθμων μηχανικής μάθησης, δεν είχε τη δυνατότητα να διαχωρίσει τη χρήσιμη από την άχρηστη πληροφορία. Ακόμα όμως και οι πιο εξελιγμένοι αλγόριθμοι της Google δεν μπόρεσαν να δουν ότι η κυκλοφοριακή συμφόρηση σε ένα άδειο στην πραγματικότητα δρόμο ήταν το αποτέλεσμα της φάρσας που σκάρωσε ο Simon Weckert. Ο Simon φόρτωσε μερικές δεκάδες τηλέφωνα σε ένα καροτσάκι και περπατούσε στον δρόμο, τροφοδοτώντας με πληροφορίες το Google Maps.

Παρατήρησε μάλιστα ότι τα συστήματα του Google Maps χρειάστηκαν περίπου 90 λεπτά για να διαπιστώσουν την ανύπαρκτη κυκλοφοριακή συμφόρηση. Αν φανταστούμε ότι ο Simon ήταν ένας πιθανός τρομοκράτης και ήταν υπό την παρακολούθηση των υπηρεσιών ασφάλειας, το σενάριο θα εξελίσσονταν διαφορετικά.

Αρχικά η “ανωμαλία” θα δημιουργούσε ένα συναγερμό και κάποιος αναλυτής πληροφοριών θα ζητούσε έγκριση για περισσότερη πληροφορία, ώστε να διαπιστώσει τι συμβαίνει. Κάποιες κάμερες ασφαλείας ή ίσως και δορυφόροι θα έστρεφαν την προσοχή τους στο Simon και έτσι ο αναλυτής θα διαπίστωνε ότι το περιστατικό ήταν μια φάρσα. Επομένως, μια πληροφορία “σκουπίδι” θα είχε μετατραπεί σε αξιόλογη πληροφορία, με τη χρήση περισσότερων πόρων.

Τα δεδομένα δεν αυτο-οργανώνονται σε γνώση
Ο ανθρώπινος εγκέφαλος μετά από χιλιάδες χρόνια εξέλιξης έχει αποκτήσει την ικανότητα να μετατρέπει το χάος των δεδομένων που λαμβάνει μέσω των αισθητηρίων οργάνων σε πληροφορία και εμπειρία, η οποία με τον καιρό μετουσιώνεται σε γνώση. Προβλήματα που συνδέονται με τα big data είναι τόσο η αξιοπιστία τους όσο και η χαοτική τους φύση.

Οι μηχανές ενός πλοίου, οι καιρικές συνθήκες που επικρατούν στην περιοχή που πλέει και η κατάσταση του φορτίου έχουν τη δυνατότητα μέσω ψηφιακών αισθητήρων να τροφοδοτήσουν με petabytes δεδομένων ανά ημέρα, τα κεντρικά συστήματα της ναυτιλιακής εταιρείας. Χρησιμοποιήσαμε ως παράδειγμα το πλοίο, γιατί το κόστος, αλλά και η χωρητικότητα των ευρυζωνικών υπηρεσιών μέσω δορυφόρου, αναγκάζουν σε μια επιλογή με στόχο το επιχειρησιακό κέντρο να κάνει τις σωστές προβλέψεις με τη μικρότερη δυνατή ποσότητα δεδομένων.

Και αν ο όγκος των δεδομένων που μπορεί να δημιουργήσει ένας στόλος πλοίων ακούγεται μεγάλος, είναι μηδαμινός μπροστά στα δεδομένα που μπορούν να δημιουργήσουν συστήματα που σχετίζονται με προσωπική παροχή υπηρεσιών υγείας. Ακόμα και μια απλή συσκευή, όπως για παράδειγμα μια αντλία, η οποία υπάγεται σε μια διαδικασία προβλεπτικής συντήρησης χρειάζεται να στέλνει πληροφορίες για κατανάλωση ενέργειας, ροή υγρού, θερμοκρασία, ταχύτητα περιστροφής και αρκετές ακόμα που θα μπορούσαν να δημιουργήσουν έναν λεπτομερή χάρτη της λειτουργίας της

Οπότε έχουμε δεδομένα με μονάδες μέτρησης σε KWh, λίτρα/μονάδα χρόνου, βαθμούς Κελσίου και περιστροφές ανά λεπτό. Κάποια από αυτά τα δεδομένα είναι επαρκές να ανανεώνονται ανά 15 λεπτά, ενώ άλλα χρειάζεται να ανανεώνονται ακόμα και χιλιάδες φορές ανά δευτερόλεπτο. Επειδή, ο όγκος των δεδομένων είναι τεράστιος, σύμφωνα με μια μελέτη της McKinsey, η οποία αφορούσε ένα σύστημα με 30.000 συνολικά αισθητήρες, για τη λήψη αποφάσεων χρησιμοποιείται τελικά το 1% αυτών.

Λιγότερα δεδομένα, βελτιωμένες μέθοδοι απεικόνισης
Η εύκολη λύση στο πρόβλημα θα ήταν η συλλογή μικρότερης ποσότητας δεδομένων. Ποιος όμως εξασφαλίζει ότι τα δεδομένα που επιλέγουμε να αγνοήσουμε δεν είναι αυτά που θα ορίσουν την κρίσιμη απόφαση; Ένα πρώτο βήμα είναι μια διαλογή δεδομένων στα σημεία συλλογής. Αυτός είναι ο λόγος που οι αισθητήρες μετατρέπονται σε μικροσκοπικούς υπολογιστές ή επικοινωνούν με ένα περιφερειακό σύστημα – φίλτρο που αναλαμβάνει να κάνει τη διαλογή. Οπότε, η πρώτη ανάλυση δεδομένων γίνεται τοπικά και με αυτόν τον τρόπο επιτυγχάνεται εξοικονόμηση σε τηλεπικοινωνιακό κόστος.

Η αξιοποίηση αλγόριθμων τεχνητής νοημοσύνης είναι ένα δεύτερο σημαντικό βήμα, καθώς σε συνδυασμό με τα νευρωνικά δίκτυα υπόσχονται διαδικασίες αξιολόγησης, οι οποίες θα προσεγγίζουν την ταχύτητα και την οικονομία ενέργειας του ανθρώπινου εγκεφάλου.

Ένας τρίτος άξονας είναι οι τεχνολογίες απεικόνισης σε δύο ή τρεις διαστάσεις. Οι πίτες και τα γραφήματα της δεκαετίας του ‘80 δεν είναι πλέον επαρκή για να απεικονίσουν την πολυπλοκότητα των σχέσεων διαφορετικών ομάδων δεδομένων. Η απεικόνιση δύο διαστάσεων φτάνει ήδη στα όρια της, οπότε οι τεχνολογίες AR, VR και τα ολογράμματα αναμένεται να πάρουν τη σκυτάλη.

1 TB δεδομένων ημερησίως συλλέγονται για το πρόγραμμα Copernicus
Tο Reading λίγο έξω από το Λονδίνο βρίσκονται οι εγκαταστάσεις του European Centre for Medium-Range Weather Forecasts, όπου περισσότερα από 1 TB δεδομένων φτάνουν καθημερινά από επίγειους σταθμούς, συσκευές στην ατμόσφαιρα και δορυφόρους. Μιλήσαμε με τον Vincent-Henri Peuch, Director του Copernicus Atmosphere Monitoring Service (CAMS) και Deputy Director του Copernicus Department στο ECMWF για τη διαχείριση μιας τόσο μεγάλης ροής δεδομένων σε πραγματικό χρόνο.

«Όταν ορίζουμε τα Big Data, συχνά αναφερόμαστε στο μοντέλο 4-V. Ως Big Data ορίζονται datasets τα οποία έχουν τουλάχιστον τα τέσσερα ακόλουθα χαρακτηριστικά: α) large (volume), (high) velocity, (large) variety και veracity. Το “veracity” είναι συνδεδεμένο με την ποιότητα των δεδομένων και είναι αυτό που επεκτείνει τα Big Data σε ένα υψηλότερο πεδίο ποιότητας βάσει παραμέτρων και μεταβλητών που ταιριάζουν με διεθνή πρότυπα και μελέτες.

Το “veracity” είναι ζωτικής σημασίας σε συστήματα ελέγχου του κλίματος και της ατμόσφαιρας. Οπότε αν η ποιότητα των δεδομένων που συλλέγουμε δεν είναι αρκετά καλή, είναι ανώφελο να χρησιμοποιήσουμε τα συγκεκριμένα datasets για να προβλέψουμε τάσεις ή να ορίσουμε πολιτικές διαχείρισης. Αυτός είναι ο λόγος που στο πρόγραμμα “Copernicus” δίνουμε μεγάλη έμφαση στο Evaluation and Quality Control (EQC) όλων των data products που διαθέτουμε στους χρήστες μας και επιπλέον όποτε αυτό είναι εφικτό τα datasets συνοδεύονται από συσχετιζόμενες εκτιμήσεις για λάθη ή αβεβαιότητες.

Τα Big Data μαζί με τα συσχετιζόμενα metadata (labeling) είναι δυνατό να διατεθούν αυτόματα και να αξιοποιηθούν σε διαδικασίες machine - to - machine και ειδικά μέσω Application Programming Interfaces (APIs).

Στο ECMWF, ειδικά για το πρόγραμμα Copernicus έχουμε εγκαταστήσει μια υποδομή, την οποία ονομάζουμε “Climate Data Store” (CDS), η οποία λειτουργεί παράλληλα ως broker δεδομένων και πραγματοποιεί κάποια επεξεργασία που συνεισφέρει στην ποιότητα των data products του Copernicus Climate Change Service (https://cds.climate.copernicus.eu) και του Copernicus Atmosphere Monitoring Service. Η υπηρεσία αυτή έχει ήδη 35000 καταχωρισμένους χρήστες και σε καθημερινή βάση εξυπηρετεί περισσότερα από 200.000 που μεταφράζονται σε επεξεργασία από 50 μέχρι 60 TB δεδομένων.

Στον πυρήνα του CDS βρίσκεται ένα Common Data Model, το οποίο μας βοηθά να διαχειριστούμε την ποικιλία των raw data που προέρχονται από επίγειους σταθμούς, συσκευές στην ατμόσφαιρα και δορυφόρους. Για τη βελτίωση των δεδομένων και το labeling αξιοποιούμε ευρέως την τεχνητή νοημοσύνη (“AI readiness”). Οπότε για εμάς, η AI βρίσκεται κυρίως στην είσοδο υποδοχής των δεδομένων.

Ωστόσο, εξετάζουμε την αξιοποίησή της στην επεξεργασία των raw δεδομένων από δορυφόρους και σε in situ παρατηρήσεις. Ανάμεσα στα οφέλη που έχουμε είναι και ο διαχωρισμός των δεδομένων που θα αποθηκευτούν στα διαφορετικά μέσα αποθήκευσης, όπως SSD, hard diks και tape archives».

The Data Conference 2020
Transforming data to business value
Η πρόκληση είναι μεγάλη για τις επιχειρήσεις. Τεράστιες ποσότητες δεδομένων είναι ήδη στην κατοχή τους
και αυξάνονται καθημερινά. Οι σύμβουλοι τις προειδοποιούν ότι αυτό είναι το πραγματικό τους περιουσιακό
στοιχείο. Τι να την κάνουν όμως την περιουσία, αν μοιάζει με τα χρυσά δολάρια που είναι εφόρου ζωής
αποθηκευμένα στο χρηματοκιβώτιο του Σκρουτζ; Ο Denis Rothman, ένας από τους keynote speakers στο φετινό
Data Conference φέρνει μαζί του πολλά παραδείγματα από επιχειρήσεις που έκαναν επιτυχημένες προσπάθειες στην αξιοποίηση δεδομένων.

Σε ένα διαφορετικό μήκος κύματος, αλλά προς την ίδια κατεύθυνση κινείται ο Jan Teichman, ο οποίος θεωρεί ότι για την αξιοποίηση των δεδομένων χρειάζονται αλλαγές όχι μόνο στις διαδικασίες, αλλά και στις νοοτροπίες. Στην ομιλία του με τίτλο “Beating the odds: How to make your data science and analytics teams part of the 15% success story”, εξηγεί λεπτομερώς, τι εννοεί αναφερόμενος σε αλλαγή νοοτροπιών. Ο τρίτος keynote speaker, Victor Moron, συμπληρώνει το παζλ, εστιάζοντας στα εργαλεία που είναι άμεσα διαθέσιμα, ώστε η θεωρία να γίνει πράξη και επιπλέον αντιστοιχεί τα εργαλεία αυτά σε διαφορετικές κατηγορίες έργων.

Και επειδή όλα αυτά δε συμβαίνουν μόνο στο εξωτερικό, οι διοργανωτές έχουν προσκαλέσει ήδη 6 ελληνικές επιχειρήσεις που έχουν κάνει τα πρώτα βήματα στην αξιοποίηση της τεχνητής νοημοσύνης για την ανάλυση big data και ο κατάλογος αυτός αναμένεται να μεγαλώσει. Το περιεχόμενο θα συμπληρώσουν ομιλίες σχετικά με τρέχοντα ζητήματα, όπως η αξιοποίηση της ανάλυσης δεδομένων στη βιομηχανία, η συνεργασία ακαδημαϊκών και επιχειρηματικών οργανισμών, το ρυθμιστικό πλαίσιο που θα ορίσει το ρόλο της τεχνητής νοημοσύνης και τις πιο πρόσφατες εξελίξεις σε μεθοδολογίες ανάλυσης και αλγόριθμους μηχανικής μάθησης.

ΑΒ Βασιλόπουλος: Personalization, πρόβλεψη ζήτησης και network analytics
Στην AB Βασιλόπουλος χρησιμοποιούν ανάλυση δεδομένων, τα οποία συλλέγονται μέσα στα καταστήματα, για την προσωποποίηση προσφορών, για την πρόβλεψη της ζήτησης. Η λήψη αποφάσεων με βάση τα δεδομένα είναι κεντρική επιδίωξη για την εταιρεία. Ο Αλέξανδρος Δοδόπουλος, Business Intelligence, Loyalty & Analytics Director στην ΑΒ Βασιλόπουλος μας δίνει το περίγραμμα αξιοποίησης των Data και πώς αυτά ενισχύουν την καταναλωτική πίστη υπέρ της μεγάλης αλυσίδας retail.

«Η ανάλυση δεδομένων και η μηχανική μάθηση συνδράμουν καθοριστικά στην καλύτερη κατανόηση των πελάτων και των αναγκών τους, με τους οργανισμούς να επενδύουν προς αυτή την κατεύθυνση», εξηγεί ο Αλέξανδρος Δοδόπουλος. «Αναμφισβήτητα, είναι η νέα πραγματικότητα και για την εξέλιξη του retail, που, παραδοσιακά, πρωτοπορεί στην υιοθέτηση νέων και σύγχρονων τεχνολογιών και φιλοδοξεί, μέσω του personalization, της πρόβλεψης της ζήτησης και των network analytics, να βελτιστοποιήσει όλα τα σημεία επαφής με τους πελάτες, αλλά και να δημιουργήσει τις συνθήκες, τα συστήματα και μια data-driven κουλτούρα στη λήψη αποφάσεων που θα ενδυναμώσουν τον οργανισμό για να μπορέσει να ανταποκριθεί σε αυτά ακριβώς που χρειάζονται οι πελάτες.

Στην ΑΒ, φιλοδοξούμε να προσφέρουμε μια αξεπέραστη αγοραστική εμπειρία, να κάνουμε τη διαφορά μέσα από προϊόντα και λύσεις, να βάζουμε την τεχνολογία στην καθημερινότητα των πελατών μας, και να αποτελούμε σημείο αναφοράς για την αποδοχή και την αφοσίωσή τους στη μάρκα. Σε αυτές τις «υποσχέσεις» θεμελιώνεται και το πρόγραμμα πιστότητας AB Plus, ένα από τα πιο ιστορικά σχήματα πιστότητας στην αγορά με 2,5 εκ. πελάτες, το οποίο, εδώ και περίπου 6 μήνες, έχει εξελιχθεί και ανανεωθεί σε ένα πλήρως digital σχήμα», καταλήγει ο κ. Δαδόπουλος.
Στάθης Ασπιώτης

Protergia: Χρήση NLP & AI στην εξυπηρέτηση πελατών
Τον τρόπο που η Protergia αξιοποιεί αλγορίθμους ΑΙ και NLP για τη βελτίωση της υποστήριξης των πελατών της, ανέλυσε η Ειρήνη Βασιλάτου, Customer Service Supervisor της εταιρείας, κατά την ομιλία της στο 6ο Συνέδριο για τις Καλές Πρακτικές στην Εξυπηρέτηση Πελατών της Boussias Communications. Όπως εξήγησε η κυρία Βασιλάτου, σκοπός της Protergia είναι να εκμεταλλευτεί κανάλια μη προφορικής επικοινωνίας για την εξαγωγή πληροφοριών μέσα από συναισθήματα που εκφράζουν καταναλωτές και υποψήφιοι πελάτες.

Στο σώμα των email γίνεται εντοπισμός, αξιολόγηση και κατηγοριοποίηση των δεδομένων που εμπεριέχονται σε αυτά με χρήση Natural Language Processing. Με τη διαδικασία, προσδιορίζονται συναισθήματα και σχέσεις μεταξύ πελατών για τον εντοπισμό εκείνων που χαρακτηρίζονται ως «influencers». Το σύστημα που χρησιμοποιείται είναι το SentiGeek και επικεφαλής του project (και όχι μόνο αυτού) είναι ο Βασίλης Νικολόπουλος, Head of Applied Research & Development, στο Electric Power Business Unit, Protergia. Από την ανάλυση των δεδομένων προέκυψε ότι το περισσότερο συχνό θέμα επικοινωνίας με την Protergia είναι οι λογαριασμοί.

Άλλες πληροφορίες αφορούν το αν έχει προηγηθεί άλλου είδους επικοινωνία, αν αναφέρονταιτρίτα πρόσωπα, αλλά και εξαγωγή insights για τους πελάτες που έχουν ρόλο decision maker. Από την πλατφόρμα της Protergia έχουν προκύψει πληροφορίες που έχουν οδηγήσει και υποστηρίξει αρκετές ενέργειες για τη μετατροπή αρνητικών συναισθημάτων πελατών σε θετικά, για την επέμβαση σε διαδικασίες επικοινωνίας, για την αξιολόγηση προϊόντων και άλλα. Έχει αντικαταστήσει η μηχανή τον άνθρωπο εξολοκλήρου; “H προσέγγιση είναι υβριδική, χρειάζεται ο άνθρωπος», δηλώνουν τα στελέχη της Protergia. Κρατήστε ότι, ενδιαφέρον για την πλατφόρμα SentiGeek εκδήλωσε η Focus Bari.
Στάθης Ασπιώτης

netweek (T. 433)
Έχετε άποψη;
Ο σχολιασμός των άρθρων προϋποθέτει την Είσοδο σας στο Netweek Online.
ΔΙΑΦΗΜΙΣΗ

Δείτε ακόμη...

Αυτοί που διάβασαν αυτό διάβασαν επίσης

Τα πιο δημοφιλή Topics

Οι πιο δημοφιλείς ειδήσεις σε αυτήν την ενότητα

Οι πιο δημοφιλείς ειδήσεις σε άλλες ενότητες

ΔΙΑΦΗΜΙΣΗ
ΔΙΑΦΗΜΙΣΗ

Συνεντεύξεις / Πρόσωπα

 
ΔΙΑΦΗΜΙΣΗ

Topics

Banking / Finance

International

Τηλεπικοινωνίες

Πολιτισμός / Ψυχαγωγία

e-government

Μουσική Βιομηχανία

Retail

Ευρωπαική Ένωση

Services

Ενέργεια / Περιβάλλον

©2020 Boussias Communications, all rights reserved. Κλεισθένους 338, 153 44 Γέρακας, info@boussias.com, Τ:210 6617777, F:210 6617778