Get Adobe Flash player
Catégories
ce site est utile, aidez nous à le maintenir au top

data

Défaillances et sauvegardes d’entreprises en 2011 : pas plus qu’en 2010, Actualités

Le nombre d'entreprises ayant fait l'objet d'une procédure de sauvegarde, de redressement ou de liquidation judiciaire en 2011 est élevé mais stable.

Selon le bilan tout juste dressé par la société Altares (spécialisée dans la collecte, le traitement et la mise à disposition d'informations sur et pour les entreprises), un peu moins de 60 000 entreprises ont fait l'objet d'une procédure de sauvegarde, de redressement ou de liquidation judiciaire en 2011. Un nombre qui reste très élevé, même s'il n'a pas augmenté par rapport à l'an dernier malgré la crise (-0,5 %).

Dans le détail, on dénombre 58 195 redressements et liquidations judiciaires et 1 419 procédures de sauvegarde. Sachant que plus des deux tiers des jugements prononcés par les tribunaux sont des liquidations judiciaires directes.

La très grande majorité (93 %) des entreprises défaillantes en 2011 sont des micro-entreprises sans salarié et des TPE de moins de 10 salariés. Toutefois, les PME de plus de 50 salariés sont davantage touchées, 409 d'entre elles ayant déposé leur bilan en 2011, soit 10 % de plus que l'an passé (+41 % en 5 ans !). Dans cette catégorie, on compte 162 sociétés employant au moins 100 salariés, soit 14 % de plus qu'en 2010.

 

 Plusieurs secteurs continuent de connaître l’embellie déjà constatée en 2010 : le transport et la logistique (- 8 % de défaillances), l’industrie manufacturière (- 7,7 %), l’immobilier (- 7,4 %) ou encore la construction (- 4,7 %). En revanche, le commerce (+ 2,3 %) n’a pas confirmé la tendance favorable de l’an passé. Les services aux particuliers, quant à eux, continuent à souffrir (+ 2,4 %).

                               Christophe Pitaud

 

Lire la suite sur :  Défaillances et sauvegardes d’entreprises en 2011 : pas plus qu’en 2010, Actualités – Les Echos Entrepreneur.

 

Pierre-André fontaine : http://cni-isere.com/defendre-les-interets-de-la-10-eme-circonscription-de-lisere/

Share

Cette nuit en Asie : Tokyo face à sa dette, Foxconn et ses « animaux », Elpida cherche un allié…

Tokyo ne tiendra pas ses objectifs de désendettement
Le gouvernement japonais a reconnu, ce matin, qu’il ne réussirait probablement pas à rééquilibrer son budget d’ici l’année fiscale 2020 comme il l’avait précédemment annoncé. L’Etat nippon devrait sur cet exercice, qui s’achèvera en mars 2021, enregistrer un déficit primaire – déficit sans intégration du coût du service de la dette – encore supérieur à 3% du PIB, ont indiqué les conseillers du Premier ministre qui ont pourtant réalisé leurs calculs en tenant compte d’une éventuelle hausse de la TVA. « De nouvelles améliorations fiscales vont être nécessaires », ont-ils prévenus. Le chef du gouvernement Yoshihiko Noda espère qu’il va réussir à faire adopter, dans les prochaines semaines au Parlement, un doublement gradué de la TVA, qui n’est pour l’instant que de 5% dans l’archipel.


L’accord de libre échange entre l’Europe et l’Inde encore retardé
Les responsables politiques indiens et européens avaient, un temps, espéré pouvoir signer un accord de libre-échange à l’occasion de la tenue, le 10 février prochain à New Dehli, d’un grand sommet bilatéral mais les points de blocage apparaissent encore trop nombreux entre les négociateurs. Malgré une récente intensification des pourparlers commerciaux, qui avaient été lancés dès 2007, l’Union européenne ne parviendrait toujours pas à obtenir une baisse satisfaisante des droits de douane indiens sur les véhicules et les alcools et n’aurait pas non plus été satisfaite par la timidité des engagements d’ouverture des marchés publics avancés par New Dehli.

Elpida négocierait une alliance avec Micron
Les actions d’Elpida Memory, le plus grand fabricant japonais de mémoires DRAM, étaient en forte hausse, ce matin, sur la place de Tokyo. Les investisseurs semblent croire aux rumeurs de presse qui annoncent la mise en place prochaine d’une alliance entre Elpida, l’américain Micron et, peut-être, le taiwanais Nanya Technology. En s’associant, les trois groupes espéreraient renforcer leur poids face à Samsung, le leader mondial du secteur. Les experts annonçaient depuis quelques mois une accélération des consolidations sur le marché des mémoires pour ordinateurs de bureaux qui souffre d’une chute des prix continue et de la popularité croissante des tablettes, qui sont elles, équipées, de mémoires Flash ou proposent du stockage dématérialisé « dans les nuages ».

Le patron de Foxconn s’excuse
Les médias de Taipei diffusent ce matin un communiqué d’excuses de Terry Gou, le PDG du puissant groupe électronique taiwanais Hon Hai Precision, qui avait indirectement comparé ses ouvriers à des « animaux ». A l’occasion d’une fête d’entreprise, organisée dans le zoo de la capitale taiwanaise à la mi-janvier, le responsable avait loué le travail des équipes du parc avant d’expliquer qu’il devait lui aussi « gérer tous les jours un million d’animaux » et que cela lui donnait souvent des « migraines ». Ses commentaires avaient enflammé les forums taiwanais avant d’être critiqués par des universitaires de Chine, où le groupe assemble dans ses usines Foxconn géantes des produits pour Apple, Sony ou Nokia. Dans son communiqué, le groupe explique que Terry Gou cherchait seulement à rappeler que les hommes font eux aussi « partie du royaume des animaux ».

YANN ROUSSEAU (à Tokyo)


Lire la suite sur :   Cette nuit en Asie : Tokyo face à sa dette, Foxconn et ses "animaux", Elpida cherche un allié… – Blogs EchosAsie.

Share

Le traitement de Big Data, un sérieux défi pour les entreprises ! #Disruptive #innovation

Big Data

 

Alors que les entreprises se développent et génèrent de plus en plus de données, la capacité à les traiter et à les interpréter pourrait être un obstacle à leur utilisation.

Big Data. Sous cette formule un peu pittoresque se cache un phénomène préoccupant pour les entreprises: la multiplication de paquets de données à un niveau tel qu’il devient impossible de les gérer avec les outils actuels de gestion de bases de données. Ces informations hétérogènes, pas toujours structurées, sont difficiles à stocker, à retrouver et à partager. Ne serait-ce que la gestion des millions de photos téléchargées sur Facebook, pour ne citer qu’un exemple. Pourtant, exploiter cette masse de données est un atout pour les entreprises, notamment pour déceler les tendances d’un marché. Tant pour les grandes entreprises que pour celles encore en phase de développement qui doivent, pour la première fois, faire face à des pétaoctets d’informations. Selon une enquête menée par Ovum auprès d’utilisateurs de Big Data, les analystes expérimentés sont rares et les fournisseurs de plates-formes de gestion de données traditionnelles ne suffiront pas à traiter la masse attendue de données qui sera générée par les entreprises en 2012.

Un manque de spécialistes de la gestion de Big Data

Pour les entreprises qui cherchent à améliorer la gestion de leur masse d’informations, les analystes compétents ne sont pas légion. Ne pas trouver de tels talents serait même devenu un handicap et la bataille ferait rage pour trouver les spécialistes appropriés et les intégrer à une plate-forme spécifique. Des applications de gestion de données comme MapReduce (un kit de composant logiciel dédié aux grands volumes de données) sont censées aider à combler le manque de spécialistes, parce qu’elles sont relativement connues des analystes de données. Néanmoins, des entreprises comme Google et Facebook ne peuvent s’appuyer uniquement sur de tels outils et ont besoin de nouveaux experts de haut vol et de nouvelles plates-formes.

Différentes plates-formes pour résoudre la gestion de données

Comme les techniques de nettoyage des données et de gestion du cycle de l’information sont en constante évolution, les personnes interrogées estiment que les problèmes de Big Data peuvent être résolus de différentes manières. Des plate-formes dites NoSQL (Not only a Standard Query Language), servant au stockage rapide et à la récupération des données pléthoriques, sont des outils sous-utilisées par les entreprises de plus petite taille. Elles permettent le stockage en exabytes, où l’unité est égale à un milliard de gigabytes de données. Par ailleurs, la base logicielle supportant les applications intensives en information, connu sous le nom de Hadoop, a été conçue pour travailler sur des milliers de petabytes de données. Le cloud computing représente également pour les entreprises une option clé pour la gestion des problèmes de Big Data.

Lire la suite sur : Le traitement de Big Data, un sérieux défi pour les entreprises | L’Atelier: Disruptive innovation.

Share

Le smart grid dépend d’une distribution efficace de l’énergie, même aléatoire #innovation

 

renewable energy

 

Mirabel proposera aux consommateurs et aux producteurs d’énergie une distribution plus efficace de cette dernière grâce à une organisation et une planification plus précise de la demande.

Afin de mieux utiliser le potentiel des énergies renouvelables (RES) dans les futurs smart grid, il faut pouvoir en prévoir, pratiquement en temps réel, la production et la consommation. Le projet Mirabel, soutenu par le Seventh Framework Programme (FP7) de la Commission Européenne, a pour but de permettre une meilleure redistribution de ces énergies à travers un ensemble d’infrastructures informatiques. Les chercheurs sont partis du principe que la plupart des RES sont dépendantes de facteurs extérieurs (direction et vitesse du vent, quantité de soleil…). Il est donc complexe pour les distributeurs d’exploiter correctement des énergies aléatoires et de proposer à leurs clients des offres en conséquence. Mirabel repose donc sur l’installation d’une entité informatique de balance de l’énergie au niveau régional (Balance Responsible Party ou BRP) qui recevra en permanence, par le biais du smart grid, les besoins de chaque foyer ainsi que les prévisions de production de RES de la part des compagnies d’énergies, sous la forme de micro-requêtes.

Prédiction et agrégation de requêtes pour une consommation maîtrisée

Ces informations pourront, soit être envoyées automatiquement par les objets eux-mêmes, soit par l’utilisateur. Compte tenu de ces données, la BRP va, grâce à des algorithmes, tout d’abord prévoir la consommation et la production d’énergie sur une période de temps donnée. Elle va ensuite agréger toutes les micro-requêtes similaires en macro-requêtes et organiser un emploi du temps par intervalles de 15 minutes avant d’envoyer une demande aux compagnies d’énergie pour que ne soit prélevé que ce dont les foyers ont besoin, au moment opportun. Par exemple, si une voiture électrique est à court de batteries le soir et qu’elle doit être utilisée le jour suivant, la BRP organisera son rechargement pendant la nuit (où la demande en énergie est plus faible) plutôt que le matin suivant. Idem pour la planification d’un lave-vaisselle avant d’aller se coucher. Il n’est pas forcément nécessaire que la machine soit effectuée immédiatement puisque les personnes n’en auront besoin qu’une dizaine d’heures plus tard. A charge pour la BRP de planifier cette consommation au bon moment.

Un fonctionnement dynamique pour économiser des coûts

Les avantages sont multiples puisque le système fonctionnera de manière dynamique à plusieurs niveaux. Si la production de RES est insuffisante pour une heure particulière de la journée, la BRP pourra envoyer des requêtes aux compagnies d’énergie pouvant contrôler leur production (pétrole, gaz, nucléaire). Elle pourra également, par exemple, se servir de l’énergie solaire non-utilisée d’un foyer pour la dispatcher ailleurs, en récompensant financièrement la famille en question. Le système sera aussi capable de trouver le meilleur prix pour une transaction d’énergie en temps réel. Le projet Mirabel, en traitant cette masse de données, devrait permettre aux compagnies de mieux planifier la gestion de leurs stocks. Il ne sera ainsi plus nécessaire de stocker indéfiniment de l’énergie (alors qu’il est moins cher d’en produire à nouveau) alors que la consommation dans les prochaines heures ne suivra pas. Le projet n’est encore qu’en phase de conception mais, selon les différents chercheurs, la mise en place de ces infrastructures économiserait 8 à 9% des coûts liés à l’énergie en Europe.

Lire la suite sur :  Le smart grid dépend d’une distribution efficace de l’énergie, même aléatoire | L’Atelier: Disruptive innovation.

#Innovation, #Europe, #Europe

Share

Les 6 métiers informatiques les plus en vue … !!!

Crédit photo: D.R

Crédit photo: D.R

Certains domaines informatiques proposent de belles perspectives d’évolution. Voici un panorama des métiers de l’IT qui ne connaissent pas la crise.

Nos confrères d’Infoworld ont identifié les emplois IT qui auront les meilleurs potentiels de croissance et qui sauront résister à l’externalisation ou à une autre période de ralentissement économique. Ils ont dressé une liste des métiers les plus en vue en parcourant les annonces publiées sur les sites d’emplois américains Dice et Modis et en s’entretenant avec des dirigeants d’entreprises high-tech sur les compétences qu’ils rechercheront dans les années à venir. Au final, 6 fonctions sont promises à un bel avenir en raison d’un bon niveau de salaire, d’un fort degré de résistance et d’une influence véritable dans les entreprises que ce soit maintenant ou à l’avenir.

 

 

 

 

Le business architect

Le métier de business architect consiste à faire fusionner la technologie avec les processus métiers des entreprises.  « Le business architect doit s’assurer que tout fonctionne ensemble», explique Alex Cullen, analyste chez Forrester Research. « Sa mission consiste à ce que l’IT soit utilisée de façon plus efficace dans l’entreprise, que ce soit dans la vente, les services aux clients, ou dans d’autres domaines clés. »

Contrairement à l’architecte d’entreprise traditionnel dont le rôle vise à organiser la technologie pour répondre aux objectifs de l’entreprise, le business architect, placé sous la responsabilité directe du PDG, doit façonner une stratégie d’entreprise de haut niveau tout en ayant une technologie à l’esprit.

« Les business managers veulent choisir la technologie qui répond le mieux à leurs besoins en ayant la liberté de  pouvoir s’en éloigner pour passer à la suivante », précise Alex Cullen.
Dans un monde où il sera possible de mettre à disposition des ressources basées sur le cloud dans le cadre d’une nouvelle initiative commerciale en se servant uniquement d’une paire d’écrans, le besoin en architectes d’entreprise diminuera au profit des business architect. Ces derniers auront pour mission d’apporter aux gestionnaires les connaissances dont ils ont besoin pour effectuer judicieusement leur choix.

Le spécialiste des données

Les Big data, c’est à dire la surabondance d’informations non structurées ou semi-structurées représentent d’importantes opportunités. Noyées dans cette montagne de données, des pépites précieuses sur le comportement des clients, les risques de sécurité, de défaillances potentielles du système, et plus encore. Mais lorsqu’on voit des téraoctets qui doublent de volume tous les 18 mois, par où commencer ?  C’est là que le spécialiste des données entre en jeu. Ce dernier peut ouvrir de nouvelles perspectives en découvrant des modèles cachés dans les données non structurées, telles que le comportement des clients ou des cycles du marché. Sur le plan du business, cet analyste peut utiliser en profondeur les tendances des données afin d’optimiser des sites web pour gagner des clients. Au sein du département IT, il peut repérer les défaillances potentielles d’un cluster de stockage ou détecter les menaces de sécurité.

« Il existe actuellement un consensus intellectuel sur le fait que le seul moyen de faire tourner une entreprise consiste à  utiliser Google Analytics avec des spécialistes en données pour trouver des opportunités », explique Norman Nie, PDG de Revolution Analytics, un éditeur du langage de programmation d’analyse de données R. Ce langage est juste un outil dans la panoplie du spécialiste des données et côtoie d’autres solutions analytiques de fournisseurs bien établis qui vont de SAS Institute jusqu’à  la plateforme IBM InfoSphere en passant par les acquisitions récentes d’EMC, comme Greenplum et Isilon Systems.

Selon Norman Nie, le métier de spécialiste des données exigera un spectre de compétences, du nettoyeur de données de base, jusqu’au statisticien de haut niveau, soit un large éventail de possibilités pour les nouveaux arrivants sur ce terrain. Comme le monde des affaires deviendra de plus en plus « social » (au sens réseau social), la demande pour sonder les profondeurs de tout ces réseaux communautaires de données ne fera qu’augmenter. Certains considèrent même que ces données seront le nouvel or noir.

L’architecte des médias sociaux 

Les outils et services liés aux réseaux sociaux sont présents à tous les niveaux de l’entreprise. Utilisés pour communiquer au sein du département informatique, on les trouve aussi à l’étage de la direction comme outils de collaboration, ou encore dans les workflows de connexion avec les partenaires et les échanges avec les clients dans le cadre du support. A mesure que s’accroît la complexité de ces outils, les entreprises ont besoin de spécialistes pour que l’ensemble fonctionne correctement.  Les médias sociaux n’incluent pas seulement le recours à Facebook et Twitter. Il faut aussi surveiller des éditeurs comme IBM, Jive et Yammer. Ils offrent des outils sociaux pour les clouds publics et privés qui redéfinissent le rôle du média social pour l’entreprise. Cela crée une demande pour des professionnels de la IT détenant des compétences spécifiques pour construire des communautés sécurisées au sein d’un réseau d’entreprise et entre les entreprises et leurs clients.

En 2010, nous avons vu croître une couche middleware nouvelle pour protéger la propriété intellectuelle, tout en s’ouvrant aux outils sociaux », explique Michael Fauscette, analyste chez IDC. « On a commencé à voir ce genre de choses parce que les entreprises veulent les avantages du web social, sans dépendre de réseaux sociaux comme Facebook ou Twitter. »

Dans les entreprises, poursuit Michael Fauscette, … la suite …

 

Lire la suite sur :  Les 6 métiers informatiques les plus en vue (1ère partie).

Share

La CNIL suggère que les données personnelles sur smartphones sont mal protégées !

Dix-sept millions de Français utilisent un smartphone. La Commission nationale de l’informatique et des libertés (CNIL) publie, mardi 13 décembre, une étude au sujet de ces téléphones capables de vous donner votre position géographique tout en vous permettant de naviguer sur vos réseaux sociaux favoris. Dans cette étude, la CNIL donne dix conseils pour une meilleure maîtrise de cette nouvelle génération de téléphones portables.

Selon cette étude, réalisée par l’institut Médiamétrie pour le compte de la CNIL, 82 % des 15-17 ans estiment « gênant d’enregistrer ses codes secrets », contre 76 % en moyenne, et 37 % utilisent un code de verrouillage spécifique, contre 31 % en moyenne. Les adolescents feraient donc plus attention aux risques que comporte le stockage des données personnelles sur les smartphones que leurs aînés.

CODE DE PROTECTION ACTIF

Les 15-17 ans seraient-ils « un exemple à suivre ? » s’interroge la commission, qui s’attend à ce que le smartphone soit, en 2012, un« enjeu majeur ». Selon l’étude, menée par Internet du 4 au 14 novembre auprès de 2 315 personnes, « chaque tranche d’âge a son activité de prédilection ». Pour les 15-17 ans, c’est la « connexion avec leur réseau et loisirs » (30 %), pour les 25-49 ans, la « multitâche » (30 %) et pour les 50 ans et plus, la « communication » (35 %).

Ces téléphones peuvent constituer une source d’informations extraordinaire pour des pirates informatiques. Sept personnes sur dix n’éteignent jamais leur smartphone et plus d’un quart l’éteignent seulement pour dormir. 89 % stockent des données de contact ou des coordonnées, 86 % des données multimédias (photos, vidéos, agenda, notes…). Mais le chiffre qui laisse songeur, ce sont les 40 % d’utilisateurs qui conservent des données à caractère secret, telles que les coordonnées bancaires, les codes secrets ou les codes d’accès aux immeubles.

Paradoxe : « 65 % pensent que les données contenues dans leur téléphone ne sont pas bien protégées, mais 30 % déclarent pourtant n’avoir aucun code de protection actif » sur leur appareil.

Entre autres recommandations, la CNIL conseille de ne pas enregistrer d’informations confidentielles, à cause des risques de vol, piratage, usurpation d’identité. Elle préconise de changer le code PIN proposé par défaut pour un code « compliqué » et non pas « votre date de naissance ! » ou une suite de quatre chiffres. Elle suggère la mise en place d’un délai de verrouillage automatique, l’installation d’un antivirus, la désactivation du GPS ou du Wifi hors utilisation d’une application de géolocalisation.

Lire la suite sur :  Carnet Evernote partagé : Sem 5 Décembre.

Share
rejoignez moi sur viadéo
Sur Viadéo
Archives