Les fraîches infos de la Data

Business Intelligence, Data Governance, Data Marketing, Data Mining and Data Integration, Data Quality Management, Machine Learning

RETAIL: Data Science & Insights // S3E3

La Data Science est la science des données. C’est un ensemble de techniques et de méthodes qui permettent à une organisation d’analyser ses données brutes pour en extraire des informations précieuses permettant de répondre à des besoins spécifiques ou de résoudre des problèmes analytiques complexes.

La Data Science permet de découvrir des informations pertinentes au sein des ensembles de données

En plongeant dans ces informations à un niveau fin, l’utilisateur peut découvrir et comprendre des tendances et des comportements complexes. Il s’agit de faire remonter à la surface des informations pouvant aider les entreprises à prendre des décisions plus intelligentes.

Cette « fouille de données » peut se faire grâce à l’apprentissage automatique (Machine Learning). Ce dernier fait référence au développement, à l’analyse et à l’implémentation de méthodes et algorithmes qui permettent à une machine (au sens large) d’évoluer grâce à un processus d’apprentissage, et ainsi de remplir des tâches qu’il est difficile ou impossible de remplir par des moyens algorithmiques plus classiques.

La Data Science permet de créer un Data Product

Un data product est un outil qui repose sur des données et les traite pour générer des résultats à l’aide d’un algorithme. L’exemple classique d’un data product est un moteur de recommandation.

Moteur de recommandation

Il a été rapporté que plus de 35% de toutes les ventes d’Amazon sont générées par leur moteur de recommandation. Le principe est assez basique : en se basant sur l’historique des achats d’un utilisateur, les articles qu’il a déjà dans son panier, les articles qu’il a notés ou aimés dans le passé et ce que les autres clients ont vu ou acheté récemment, des recommandations sur d’autres produits sont automatiquement générées.

Optimiser votre gestion de stock

Un autre exemple de cas d’usage de la data science est l’optimisation de l’inventaire, les cycles de vie des produits qui s’accélèrent de plus en plus et les opérations qui deviennent de plus en plus complexes obligent les détaillants à utiliser la Data Science pour comprendre les chaînes d’approvisionnement et proposer une distribution optimale des produits.

Optimiser ses stocks est une opération qui touche de nombreux aspects de la chaîne d’approvisionnement et nécessite souvent une coordination étroite entre les fabricants et les distributeurs. Les détaillants cherchent de plus en plus à améliorer la disponibilité des produits tout en augmentant la rentabilité des magasins afin d’acquérir un avantage concurrentiel et de générer de meilleures performances commerciales.

Ceci est possible grâce à des algorithmes d’expédition qui déterminent quels sont les produits à stocker en prenant en compte des données externes telles que les conditions macroéconomiques, les données climatiques et les données sociales. Serveurs, machines d’usine, appareils appartenant au client et infrastructures de réseau énergétique sont tous des exemples de sources de données précieuses.

Ces utilisations innovantes de la Data Science améliorent réellement l’expérience client et ont le potentiel de dynamiser les ventes des détaillants. Les avantages sont multiples : une meilleure gestion des risques, une amélioration des performances et la possibilité de découvrir des informations qui auraient pu être cachées.

La plupart des détaillants utilisent déjà des solutions liées à la Data Science pour augmenter la fidélisation de la clientèle, renforcer la perception de leur marque et améliorer les scores des promoteurs.

Et vous, quand est-ce que vous ouvrez votre précieux sésame ?

Cet article vous a inspiré ?
Business Intelligence, Data Marketing, Data Mining and Data Integration

RETAIL: maîtriser vos données métiers // S3E2

Dans l’épisode précédent, nous avions présenté la qualité des données et les enjeux d’une mise en place de process de fiabilisation et de suivi de l’évolution de la donnée au sein d’une organisation. Dans cet épisode, nous vous parlons d’une méthode de gestion de données appelée la « la gestion des données de référence » ou MDM (Master Data Management).
Connaissez-vous cette méthode ?
pexels-fauxels-3184287 (1)

Le MDM consiste à centraliser la gestion de données dites essentielles intéressant les grandes applications de l’entreprise. Il implique une réflexion plus globale sur l’urbanisation du SI. Tant du point de vue des données que des processus.

Pour mieux cerner la notion de « gestion des données de référence », faisons un tour d’horizon de ce domaine, des fonctionnalités proposées par les outils du marché, et les principaux acteurs.

LES ENJEUX

Le référentiel de données n’est pas une notion nouvelle. Mais le MDM est lui un concept émergent qui prend toute sa dimension aujourd’hui.  En effet, la complexité croissante des systèmes d’information souvent éclatés suite à des réorganisations d’entreprises, la volumétrie croissante des informations à gérer, la multiplication des contraintes réglementaires obligent le gestionnaire à mieux maîtriser les informations clés de l’activité de l’entreprise : clients, produits, fournisseurs, etc.

Si la notion de dictionnaire ou « référentiel de données » n’est pas nouvelle, le concept-même de MDM est apparu en 2003 et prend vraiment son essor actuellement. Historiquement, celui-ci s’est développé dans des contextes très verticalisés, et sous deux angles :

La gestion des catalogues produits (ou PIM pour Product Information Management) notamment dans les domaines de la grande distribution (retail) et du manufacturing,
L’intégration des données clients (ou CDI pour Customer Data Integration) particulièrement pour l’administration de grosses bases de données transactionnelles (gestion des doublons, vérification et homogénéisation des adresses, etc.).

Ce concept désormais d’autres problématiques et concerne la gestion des tiers et personnes, des produits et des offres, de l’organisation et des structures͕ des nomenclatures et des codifications, de la configuration et des paramètres.

LES CONTRAINTES EXTERNES

Face à la mondialisation et à l’ouverture des marchés͕ les entreprises et organismes publics connaissent de multiples restructurations et opérations de fusion et doivent s’adapter à des contextes d’internationalisation pour se maintenir dans la course et s’ouvrir de nouvelles opportunités de business. Ces structures doivent faire face à de multiples contraintes qui régissent leur environnement :

La complexité croissante des contraintes réglementaires (Bâle II, IFRS, MIF, etc.) nécessite de collecter plus de données, de justifier  davantage les opérations, d’avoir  plus de transparence au niveau de la présentation des résultats,
Une compétitivité plus forte : face à la mondialisation et à l’ouverture des marchés, il faut être en mesure d’anticiper les tendances du marché, mettre en place de nouvelles offres pour répondre aux clients exigeants, répondre à la pression des actionnaires, et enfin pouvoir se mesurer régulièrement à la concurrence,
Les impératifs de rentabilité sont incontournables face à l’accroissement des risques opérationnels,
Une organisation centrée sur le client : il s’agit de lui proposer le bon produit, sur le bon canal au bon moment.

LES CONTRAINTES INTERNES

En interne aussi, la gestion de l’information est soumise à des contraintes nombreuses et complexes dues à :

La multiplication des systèmes et applications,
La multiplication des données (structurées ou non) avec la dispersion, la redondance et les incohérences sur les données les plus essentielles, les désaccords internes sur la valeur à attribuer à telle ou telle donnée, les définitions incorrectes sur certaines données, la difficulté d’accès et de manipulation des données͕ l’absence de gestion unifiée et maîtrisée des données clés de l’entreprise,
L’apparition  de nouveaux impératifs métier qui nécessitent d’avoir l’information quasi en temps réel , et de se doter des bons indicateurs pour réduire les risques opérationnels.

LES GRANDES FONCTIONNALITES

Parmi les fonctions du Master Data Management, on distingue :

Les fonctions de base : la gestion du référentiel centralisé, la gestion de catalogues multiples (clients, produits, etc.), la gestion du cycle de vie des données, la gestion des versions Développement, test, production), la gestion des types et liens entre données,
L’intégration : la synchronisation; le profiling de données et la gestion de la qualité de données, la réplication͕ la transformation͕ l’intégration des données et applications ;au sens chargement ETL des données),
La modélisation : les outils de modélisation, la découverte et le mapping des données, la gestion des hiérarchies complexes et sémantiques,
La gouvernance  la gestion de la sécurité͕ l’interface utilisateur métier͕ les fonctions de recherche et d’accès͕ le workflow,
Les fonctions avancées : l’évolutivité, pour étendre le référentiel à d’autres catégories de données via des modèles de données standardisés et extensibles ; la présence d’un moteur de règles, pour piloter et conditionner les processus de mise à jour dans les référentiels ; les fonctions natives de workflow enrichies d’étapes de validation humaines lors du design des flux, la réconciliation des données clients produits entre les différentes applications des fonctions exposées sous forme de Web services pour faciliter le dialogue synchrone avec le référentiel, l’intégration native avec les outils ETL (Outils d’intégration de données) et les outils de gestion de qualité des données.

Use case : l'exemple de Domino's Pizza

Challenge

L’entreprise avait besoin de gérer ses données référentielles afin d’optimiser ses ventes et profits

  1. L’entreprise avait une directive stratégique d’identifier de façon unique un client et son comportement d’achats.
  2. Les informations des clients étaient dupliquées et se trouvaient dans différents systèmes. A savoir : l’application web et mobile de commande de Pizzas, le CRM et Applications de gestion commerciales (POS).

Stratégie

Création d’une stratégie Data orientée Client en 3 grands axes :

  1. Implémentation d’une gestion de données de référence (MDM) des données clients avec la création de « Golden records » (enregistrement unique pour identifier un client) dans le CRM, ERP, et les applications décisionnelles.
  2. Automatisation de la validation et l’identification des différences entre les systèmes opérationnels en utilisant des règles de gestion métiers.
  3. Transformation, nettoyage et synchronisation des enregistrements entre les différents systèmes et création d’un workflow permettant de maintenir les données entres les différentes entités du système.

Résultats

  • Optimisation des ventes et de la profitabilité avec des campagnes marketing stratégiques et mieux ciblées.
  • Création d’un Data hub pour les clients. Tous les systèmes qui utilisent le référentiel client utilise une seul et unique source et version de la donnée.
  • Mise en place d’une fondation solide de gestion de données et l’élimination des pratiques manuelles source d’erreurs.

Un projet MDM vise à urbaniser l’administration des données en différenciant bien ce qui est du ressort des applications opérationnelles et des données locales et au contraire ce qui revient au MDM et à la gestion des données de référence d’entreprise͘.  Modélisation, intégration et gouvernance sont les grands axes de réflexion des projets MDM͕ lesquels doivent se doter d’une méthodologie rigoureuse assortie des meilleures pratiques.

Les données « pré-traitées » ça vous parle ?

Dans le prochain épisode, nous aborderons les méthodes de la « Data science » qui permettent d’extraire les connaissances d’une entreprise à partir de ce type de données. Soyez au RDV !
Cet article vous a inspiré?
Business Intelligence, Data Governance, Data Mining and Data Integration, Data Quality Management

RETAIL : meilleures Data, meilleurs résultats // S3E1

La stratégie « Data-driven » passe d’abord par une qualité de données irréprochable. La non qualité des données influe directement sur la qualité du pilotage de l’activité. Les données du client inexactes et multiples altèrent la connaissance client et par conséquent la relation client est impactée. Les indicateurs de performance d’un point de vente doivent être fiabilisés car ils sont exploités pour l’évaluation des équipes ou certaines décisions comme la fermeture, la relocalisation, la rénovation ou encore l’estimation du chiffre d’affaires prévisionnel.

Qu’entend-on par « données de qualité » ? 

On peut parler de données de qualité lorsque les 4 caractéristiques suivantes sont réunies :

  • Des données complètes: vous disposez d’informations complètes sur vos référentiels et vos données transactionnelles.
  • Des données disponibles: vous accédez sans problème et rapidement aux données dont vous avez besoin.
  • Des données à jour: des données de qualité impliquent un nettoyage régulier, ainsi que la mise à jour de vos référentiels… faute de quoi vous prenez des décisions basées sur des facteurs devenus obsolètes.
  • Des données utilisables : erreurs de remplissage de champs, fautes d’orthographe, coquilles, chiffres erronés… Des données de qualité impliquent de résoudre ces problèmes et de bien encadrer la terminologie utilisée.

Pourquoi avoir de meilleures data ?

Malgré la tendance qui met de plus en plus en avant l’importance de disposer de données fiables pour prendre les bonnes décisions stratégiques et commerciales, de nombreuses entreprises hésitent encore à véritablement investir dans ce sens et pensent avant tout à réduire leurs coûts.

pexels-karolina-grabowska-4210850 (1)

Est-ce votre cas ?

Si oui, dans ce cas, vous passez à côté de données précieuses pour augmenter vos ventes, attirer plus de clients et mettre de côté les dépenses inutiles.

Il ne suffit pas de consulter ses statistiques de CA et fréquentation pour assurer un véritable pilotage par la data.

La qualité des données est indispensable et permet d’optimiser plusieurs axes :

  • La croissance du chiffre d’affaires
  • La réduction, voire la suppression des dépenses non-pertinentes
  • Un meilleur management du risque
  • Une meilleur relation client

Des données bien paramétrées et prêtes à être analysées selon vos objectifs vous permettront par exemple d’identifier en un clin d’œil vos tendances de vente par produits, de mieux comprendre ce qui fonctionne auprès de vos clients, mais aussi de réduire les coûts de campagnes selon leur ROI, d’anticiper vos lancements et de limiter les risques…

Comment faire pour avoir de meilleures données ??

Les dirigeants les mieux informés reconnaissent l’importance d’établir et d’institutionnaliser les pratiques exemplaires pour améliorer l’utilisation des données. L’objectif premier est d’élever le niveau de qualité de l’information. Cependant, des problèmes peuvent apparaître si les entreprises entament des efforts sporadiques pour les nettoyer et les corriger. L’absence de processus exhaustifs réservés à la gestion de la « qualité de données » entraîne la multiplication des interventions, et de fait l’augmentation des coûts. Pire encore, cela entrave la distribution d’informations cohérentes auprès des utilisateurs métiers.

Il convient alors d’adopter une approche pragmatique afin d’aligner les pratiques disparates en termes de maintien de la qualité des données. Cette démarche permet de mettre en place un programme à l’échelle d’une société afin de relever ces deux défis. Au-delà du fait de se rapprocher de partenaires commerciaux, de développer des cas d’usage et d’élaborer une analyse du retour sur investissement, il faut lister les procédures essentielles à l’amélioration de cette « qualité de données ».

Voici les cinq procédures les plus pertinentes :

  1. Documenter les exigences et définir des règles de mesure

 Dans la majorité des cas, accroître la qualité des données consiste à améliorer la pertinence des informations commerciales. Pour ce faire, les organisations doivent commencer par collecter les besoins. Cela implique une collaboration avec les utilisateurs métiers afin de comprendre leurs objectifs commerciaux. Une fois cette étape finalisée, ces informations combinées à des expériences partagées sur l’impact commercial des problèmes liés à la qualité de données peuvent être transformées en règles clés. Celles-ci mesurent la fraîcheur, l’exhaustivité et la pertinence des données.

 

  1. Évaluer les nouvelles données pour créer un référentiel adapté

 Un processus reproductible d’évaluation des données permet de compléter l’ensemble des règles de mesure, en scrutant les systèmes sources à la recherche d’anomalies potentielles dans les nouvelles données. Les outils de profilage permettent de balayer les valeurs, les colonnes et les relations dans et entre les sources de données. Mener cette opération fréquemment facilite l’identification des valeurs aberrantes, les erreurs et renforce leur intégrité. Ces outils permettent également de renseigner les administrateurs quant aux types de données, la structure des bases de données, et sur les interactions entre les entités. Les résultats peuvent être partagés avec les métiers pour aider à élaborer les règles de validation de la qualité des données en aval.

 

  1. Mettre en œuvre des processus de gestion sémantique des données

 Au fur et à mesure que le nombre et la variété des sources de données augmentent, il est nécessaire de limiter le risque que les utilisateurs finaux des différentes divisions d’une organisation interprètent mal ce surplus d’informations. L’on peut centraliser la gestion des métadonnées (dictionnaire de données) commercialement pertinentes et engager les utilisateurs et le Chief Data Officer (Directeur des données) à collaborer. Il s’agit d’établir des standards afin de réduire le nombre de cas où de mauvaises interprétations entraînent des problèmes d’exploitation des données. Les métadonnées et les librairies associées peuvent être accessibles depuis le Catalogue de données dans le but de comprendre les informations disponibles.

 

  1. Vérifier la validité des données en continu

Ensuite, il est recommandé de développer des services automatisés pour valider les données enregistrées, services qui adopteront les règles de qualités préalablement définies. Un déploiement stratégique facilite le partage des règles et des mécanismes de validation à travers l’ensemble des applications et dans tous les flux informatiques, afin d’assurer une inspection continue et la mesure de la qualité des données. Les résultats peuvent être intégrés à divers systèmes de rapports tels que des notifications et des alertes directes envoyées aux responsables de la gestion des données pour traiter les anomalies les plus graves et les failles de données hautement prioritaires, ainsi que des tableaux de bord figurant des agrégats pour les collaborateurs non-initiés.

 

  1. Endiguer les problèmes liés à la mauvaise qualité des données

 En ce sens, il est pertinent de développer une plateforme pour enregistrer, suivre et gérer les incidents liés à la « qualité de données ». Il ne suffit pas de comparer les règles mises en place. En soi, cet effort n’entraîne pas d’amélioration à moins qu’il y ait des processus standards pour évaluer et éliminer la source des erreurs. Un système de gestion des événements peut automatiser les tâches de reporting, mettre en avant les urgences, alerter les responsables, assigner les tâches et suivre les efforts d’assainissement.

pexels-andrew-neel-2682452

Bien menées, ces méthodes de « Data Governance » constituent l’épine dorsale d’un cadre proactif de gestion de la qualité des données, assorti de contrôles, de règles et de processus qui peuvent permettre à une organisation d’identifier et de corriger les erreurs avant qu’elles n’aient des conséquences commerciales négatives. En fin de compte, ces procédures permettront une meilleure exploitation des ressources au bénéfice des entreprises qui les déploient.

Vous assurer des données de qualité ne devrait jamais être considéré comme une dépense, mais bien comme un investissement… rentable !

 

Comment la data peut-elle être véritablement utile aux retailers ?

Dans le prochain épisode, nous nous penchons sur des cas d’usage pour illustrer « l’intérêt de la Donnée dans le monde du retail ». Stay tuned.

Business Intelligence

Talk on The Era of Smart Data

2nd of May , The team participated in a talk on the era of smart data organised by the MIOD Fellows Networking Event. Great night exchanging ideas on data analytics , the future of BI and the tools needed to move forward with data strategy.

The Team ready to kick off the talks on data!

Technology

International Girls in ICT Day

 

Expand Horizons, Change Attitudes!

International Girls in ICT Day is celebrated every year on the fourth Thursday of April and was celebrated on 25 April 2019​.

This year Business Lab Consulting is the proud sponsor of Girls in ICT Day in Mauritius. We participated in the workshops to bring awareness of the power and possibilities a career in technology can offer to young girls and women across schools, universities, ICT companies and government offices.

Business Intelligence

Did You Know?? Real-time Intelligence = Value

Do you know how easily your organization’s business intelligence can turn into a lost opportunity? Well, it is just a matter of TIME. Intelligence is of value if, and only if it arrives on time.

In today’s hyper-competitive market environment, business intelligence continues to be an area of investment and interest for businesses. The ability to turn raw data into meaningful and useful information that can impact business performance is a powerful value proposition.

Despite the emergence of new devices and software products designed to unite employees in more ways than ever before, the threat of organizational silos is still very real.

Lack of collaboration between individuals and teams in different departments working on similar assignments and projects could ultimately lead to inefficiencies and loss of productivity.

The best-case scenario for this duplication of data analysis is that teams come up with the same result. When individuals or teams produce different numbers this cause disagreements about who had analyzed the ‘correct’ data and which can be fully trusted.

In the grand scale of things, this distorted view of data can be devastating, but there are even more ways that data silos can put your business in danger.

Keeping a pulse on business’ sales, marketing, finances, web analytics, customer service, internal R&D, IT, and more as isolated sources of data will never give a complete picture.

The scary truth is big data doesn’t lead to big insights if you can’t bring it together.

Yet many businesses are only scratching the surface of what’s possible with business intelligence.

To realize the potential of business intelligence and take its value to the next level in your organization, you need a solid understanding of where you are, what you want to achieve, and what’s possible.

From generating reports and charts that depict business performance, to implementing a truly transformative solution that uses powerful advanced analytics to not only predict behaviors and outcomes but to prescribe  recommended courses of actions, business intelligence can be a strategic weapon that significantly impacts your bottom-line.

The next breakthroughs in business intelligence (BI) and analytics will see machine learning and artificial intelligence used to improve data access and data quality, uncover previously hidden insights, suggest analyses, deliver predictive analytics and suggest actions.

BI and analytics vendors are developing “smart” capabilities that will power the next step beyond self-service analytics, helping to further democratize data analysis for business users.

The benefits of business intelligence tools far outweigh the investments they entail. They can help businesses gain valuable insights to affect growth, resolve urgent concerns, collate marketing data more quickly, provide a real-time view of the organization and allow for the anticipation of future outcome using predictive and prescriptive analytics and forecasting.

Artificial Intelligence, Hospitality

Innovation- Chatbots in the Hospitality Industry

Chatbots were one of the most significant trends of 2017. These small pieces of software with pre-programmed interactions allow you to communicate with them naturally and simulate the behavior of a human being within a conversational environment. It can be a standalone service or integrate within other messaging platforms like Facebook Messenger.
The adoption of these virtual assistants is growing, and brands are using chatbots in lots of exciting ways. You can order food, schedule flights and get recommendations for pretty much anything. Chatbots seemingly are the future of marketing and customer support.
The use of chatbots in the hotel industry is still evolving, but it currently encompasses a wide range of services, from hotel bookings and customer service inquiries to pre/post-stay inquiries and general travel advice.
The hotel industry can experience many benefits from the use of chatbots, among them:
  • They can be used as a reservation channel to increase direct bookings.
  • Since chatbots are available 24/7, they will reduce reception workload by giving guests instant and helpful answers around the clock.
  • Guests can check-in/check-out on the fly with the aid of a chatbot.
  • They will help independent hotels to build accurate guest profiling so that they can provide personalized offers to their guests. The hotel will be able to deliver tailor-made offers instantly and directly via chat before, during or after their stay.
  • Guests can opt-in to be notified from chatbots about the places to visit, the rates of the hotel’s cars, etc.
  • The ease of booking and the proactive concierge services create brand loyalty and improve guest satisfaction.
  • Hoteliers will be able to obtain customer reviews post-stay via a chatbot. This is much less invasive compared to traditional email marketing, which is often ignored.
What challenges do they pose for hoteliers?
Adopting this new hotel technology involves many challenges for hoteliers. For instance:
  • Independent hotels will need to simplify their booking process to accommodate chatbots.
  • Hoteliers will need to provide a consistent booking experience on chatbots in comparison to other channels.
  • General managers will need to monitor chatbots where there is a human element. They will need to allocate staff resources.
  • Hoteliers will need to manage guest expectations since guests will expect a quick turnaround on their requests through chatbots.
As you can see, chatbots present many opportunities for hoteliers, from increasing customer loyalty to enhancing the guest experience. To keep your guests coming back for more, definitely consider joining the chatbot revolution – but only if your hotel is equipped and prepared for this big step.
CRM

Did You Know?? 5 Ways To Maximise Your Salesforce Data With Tableau Software

Salesforce revolutionized Customer Relationship Management (CRM) by leveraging the power of the cloud. Tableau puts that rich customer data to work by providing analytics for everyone in your organization.

Blend Salesforce data with other types of data for a deeper understanding and increased visibility into opportunities. With Tableau, you can provide your entire sales force, channel team, and executives with secure, up-to-date, customized views of data—even through browsers and mobile devices.

When it comes to sales metrics, everything from your pipeline to your revenue is mission critical—so your analytics solution needs to be fast, easy and talk seamlessly with your entire data ecosystem.

Saving time in every step of your sales data workflow is fundamental. From accessing and analyzing complex data sets, publishing interactive dashboards, and sharing across your organization, for your sales data to be impactful, the insight-to-decision process must be swift.

Use these 5 tips for boosting your pipeline with Salesforce data:

1. Connect to Data Everywhere
2. Blend Salesforce Data with Other Data
3. Answer Big Questions with Better Visualizations
4. Use your Data in the Field
5. Put Data Findings Everywhere

Nobody understands decision-making better than sales people. In today’s marketplace, how fast is the speed of business, actually?

The hallmark of data-driven sales teams is the ability to see and understand data analysis at the speed of thought—allowing for the asking and answering of questions as fast as salespeople and business leaders can think of them, even against multiple large data sets. What number can you hit? What deals can you close? What regions matter most today? Don’t limit your decision-making; for maximum results, sales performance demands flexibility and finesse from their people, their processes and most critically, their data.

Business Intelligence

Smart City, Smart People, Smart Data

Smart City, Smart People, Smart Data

Creating a smart city is based on concepts of innovation, technology, sustainability and accessibility ensuring economic progress as well as a higher quality of life. This is opening an infinite number of opportunities to become more efficient in both public and private management. It means that  both the public sector, as well as the private (all types of business)  sector have to be prepared to express their ambitions collaboratively about what they want to achieve in the future. 

Democratisation of technology has meant that people are much more demanding, informed, über-connected and multi-channel. With the advent of new technologies in particular Internet of things, new business models are emerging to  build solutions that increase or improve  the citizens’ quality of life. from optimising public transport routes to using smart garbage bins to track litter habits.

Whilst the deployment  of smart cities involve several innovative technologies to facilitate sustainable urban spaces, the concept is still vague and open.  The ‘smart’ capabilities need to be operational and measurable. In order to evaluate how ‘smart’ is a smart city, robust data management and analysis is required.

This entails very close collaboration between both public and private sectors to share and analyse the vast amount of data being generated by new technologies. There are a billion places to gather data, and more tools are coming to market to help collect as much of it as possible.

The ability to share vital information in real time would enable businesses operating both in the private and public sector to develop powerful hardware systems  and software solutions;  that not only support automation but provide the ‘smart’ capabilities of a city and its infrastructure. Today, there’s an assortment of technologies being used to handle various characteristics, such as high volume, data location, and a variety of data source types. The collection of crucial data from any kind of source, such as the own city’s sensors, participatory sensing (for instance, sensors integrated in citizens’ smartphones), would enable the compilation of information about people and vehicle traffic, parking, environmental values, waste generated, energy consumption and healthcare etc.  for the smart functioning of the city’s basic services.

It’s easier said than done one is tempted to say. Whatever the hype, whether artificial intelligence, machine learning or automation, it must start with data. Data is vital for smart cities technology.

First and foremost sound and mature data management practices  need to be in place. Technology alone is not sufficient to build a smart city. Competent human intelligence is also part of the equation to complete this:  Employees need to be comfortable analyzing and making decisions with data. Not only should the data analytics platform be robust, the team’s responsible for it must have a good mix of skills. The tecchies and fuzzies of this world will drive the vision of the Smart City not the traditional analysts.

“Finding solutions to our greatest problems requires an understanding of human context as well as of code; it requires both ethics and data, both deep thinking people and Deep Learning AI, both human and machine; it requires us to question implicit biases in our algorithms and inquire deeply into not just how we build, but why we build and what we seek to improve.” * (Scot Harley )

The essential question in the continuously growing amount of data volumes is how to make practical use of these volumes and without analytics, interpretation and algorithms it just isn’t possible. Advanced analytics has emerged as a critical component of modern analytics architecture, with companies turning to statistics, predictive algorithms, and machine learning to maximize the value of very large data sets. Without having to examine every dimension and variation in the data manually, people are automatically guided to relevant insights and alerted to data points that are worth exploring. The use of AI-driven smart data for customer analysis, fraud detection, market analysis, and compliance is becoming a reality to uncover insights hidden in data.

Investing in a strong modern analytics platform leverages the partnership between Business and  IT . When business users are given tools to analyze data on their own, they are free to answer questions on the fly, knowing they can trust the data itself. This leads to accurate, agile reports and dashboards and one single version of truth. And IT, free from dashboard and change requests, can finally prioritize the data itself: safeguarding data governance and security, ensuring data accuracy, and establishing the most efficient pipelines for collecting, processing, and storing data.

Adapting to a scenario that is extremely technologically, economically and socially dynamic is the lynchpin of  development and helps to drive smart systems geared towards improving integration and interaction of the smart citizen.

When data is approached intelligently to generate insights into how the  tech systems are performing it is only then that efficiencies and savings could be measured across all strategic elements of Smart Cities -enterprise competitiveness, mobility, urbanism, energy, water, waste recycling, security, culture and healthcare.