Rechercher dans ce blog

vendredi 20 février 2026

Le texte de la semaine : Mishpatim. JBCH N° 2602 - 886

Après "Eloim", on établit des Lois pour les hommes. À première vue,  Mishpatim pourrait sembler austère. Après l’éclair du Sinaï et la solennité des Dix Paroles, le texte plonge dans une longue série de lois civiles : dommages et intérêts, responsabilité du gardien, protection de l’étranger, interdiction de corrompre le juge. Pourtant, c’est précisément là que se joue l’essentiel. La révélation cesse d’être une expérience mystique pour devenir un projet de société.







« Voici les lois que tu placeras devant eux » (Exode 21,1). Le verset est sec, presque administratif. Mais il marque un tournant : la transcendance descend dans le tribunal. La Torah affirme que la spiritualité ne flotte pas au-dessus du monde ; elle s’incarne dans les contrats, les litiges, la protection des faibles. Le Talmud résumera cette exigence d’un principe devenu classique : « Quand entre Adar, on augmente la joie », mais ici, dans Mishpatim, on pourrait dire : quand entre la révélation, on augmente la justice.







Le texte insiste sur la dignité humaine, y compris dans un contexte antique brutal. Il encadre l’esclavage au point d’en réduire la durée et d’en humaniser les conditions. Il met en garde : « Tu n’opprimeras pas l’étranger, car vous avez été étrangers en Égypte » (Exode 22,20). Cette phrase, répétée sous diverses formes dans la Torah, est un rappel constant de la mémoire historique comme fondement moral. L’expérience de la vulnérabilité devient la source d’une éthique politique.


Dans l’Israël d’aujourd’hui, ces mots résonnent avec une intensité particulière. L’État juif est né d’une mémoire d’exil et de persécution. La tension permanente entre sécurité et droits individuels n’est pas une abstraction académique ; elle est quotidienne. Les débats sur la réforme judiciaire, sur la place de la Cour suprême, sur l’équilibre des pouvoirs, renvoient à la question centrale de Mishpatim : qui garde les gardiens ?





Le texte biblique pose un cadre clair : « Tu ne pervertiras pas le droit ; tu ne favoriseras pas le pauvre dans son procès, ni n’honoreras le puissant » (Exode 23,3.6). La justice ne doit céder ni à l’émotion sociale ni à la pression politique. Dans un pays confronté au terrorisme, aux guerres asymétriques et aux fractures internes, cette exigence d’impartialité devient un défi quotidien. Les opérations militaires sont scrutées par les tribunaux, les décisions gouvernementales contestées devant les juges. Certains y voient une entrave ; d’autres, la preuve d’une démocratie vivante. Mishpatim rappelle que la loi n’est pas un obstacle à la souveraineté, mais sa condition.




Le texte va plus loin encore. Il traite de responsabilité indirecte : si ton bœuf encorne le voisin, tu es comptable des dégâts. Transposé au monde contemporain, cela évoque la responsabilité de l’État face aux actes commis en son nom. Dans un contexte régional instable, chaque décision militaire, chaque riposte, chaque retenue, porte un poids moral et juridique. La Torah ne nie pas la nécessité de se défendre ; elle exige que la force soit encadrée.


Au cœur de la paracha, un moment décisif : le peuple répond « Naassé venishma » — « Nous ferons et nous comprendrons » (Exode 24,7). C’est l’acceptation d’un pacte civique avant même d’en saisir toutes les implications. La formule est souvent citée comme l’acte fondateur de l’engagement collectif juif. Dans la société israélienne actuelle, fragmentée entre sensibilités religieuses, laïques, nationalistes ou libérales, la question demeure : existe-t-il encore un « nous » capable de dire « nous ferons » ensemble ?

Les manifestations massives de ces dernières années, qu’elles portent sur la réforme des institutions ou sur la conduite de la guerre, traduisent une inquiétude mais aussi une vitalité. Elles témoignent d’un attachement passionné au destin commun. Mishpatim, en liant foi et droit, suggère que l’unité nationale ne se construit pas sur l’uniformité, mais sur l’adhésion à des règles partagées.







La paracha contient aussi une promesse : « Je ne pervertirai pas le droit du pauvre dans son procès » (Exode 23,6). Dans une région où l’arbitraire demeure fréquent, l’idée qu’un État juif se soumette à des normes juridiques strictes constitue en soi une singularité historique. Israël, souvent critiqué sur la scène internationale, revendique simultanément son droit à la sécurité et son attachement à l’État de droit. Cette tension est parfois inconfortable ; elle est aussi le signe d’une conscience héritée.


Mishpatim ne propose pas une utopie naïve. Elle sait la violence possible, les conflits inévitables. Mais elle affirme que la justice est le fondement de la légitimité. « Tu t’éloigneras du mensonge » (Exode 23,7) : le verset est bref, absolu. À l’ère des réseaux sociaux, de la désinformation et des narratifs antagonistes, cette injonction semble d’une actualité brûlante.


Au fond, ce texte ancien agit comme un éditorial permanent. Il rappelle qu’un peuple sorti d’Égypte ne peut gouverner comme l’Égypte. Il rappelle qu’une souveraineté née de la vulnérabilité doit rester attentive à la vulnérabilité. Il rappelle enfin que la force, sans justice, se vide de sens.


Dans le tumulte politique israélien, où s’entrecroisent urgences sécuritaires et querelles institutionnelles, Mishpatim murmure une ligne directrice : la révélation n’est crédible que si elle produit un droit équitable. Plus de trois millénaires après le Sinaï, la question demeure ouverte, mais le texte, lui, ne varie pas. Il exige que la foi se traduise en responsabilité, que la mémoire devienne justice, et que la puissance accepte ses limites.




jeudi 19 février 2026

Dex Hunter-Torricke a créé le Centre de Demain JBCH N° 2602 - 885

Parce que l'Homme joue à l'apprenti sorcier, qu'il joue avec le feu, des hommes se lèvent au sein de la Silicon Valley pour dire STOP , il en est un, Dex Hunter-Torricke , ancien directeur de spaceX, Meta, Google, et qu'il a conseillé Elon Musk et Mark Zuckerberg il crée une sorte de club de reflexion... et devient un dissident du monde technologique. 


Inquiet des dérives liées au développement incontrôlé de l’intelligence artificielle, Hunter-Torricke a lancé une organisation à but non lucratif, le « Center for Tomorrow ». 


Son objectif : réunir responsables politiques, chercheurs, industriels et société civile afin d’anticiper les risques et d’encadrer l’essor de l’IA. Selon lui, la course effrénée à l’innovation alimente une crise globale aux conséquences politiques, économiques et sociales majeures.


Dans un entretien accordé à DFD, il décrit une industrie autrefois porteuse d’espoir, aujourd’hui dominée par une logique de compétition permanente. « Les voix responsables ont de plus en plus de mal à se faire entendre », déplore-t-il. Il estime que la technologie agit comme un accélérateur de crises déjà existantes, qu’elles soient climatiques, géopolitiques ou démocratiques.





À ses yeux, la poursuite de cette trajectoire pourrait provoquer, dans les dix prochaines années, un appauvrissement des classes moyennes, une radicalisation politique et une érosion des libertés. Il redoute également une militarisation massive de l’IA, susceptible de déstabiliser l’ordre international et d’alimenter de nouveaux conflits.


Hunter-Torricke critique par ailleurs l’approche dominante du secteur, focalisée sur des solutions techniques limitées. Selon lui, des milliards de dollars sont investis dans des garde-fous insuffisants, sans réflexion globale sur la gouvernance et l’impact social. Il juge illusoire de vouloir réguler localement un phénomène mondial.




Concernant les politiques publiques, il se montre sceptique face aux propositions comme les moratoires sur les data centers ou le revenu universel. Pour lui, ces mesures restent marginales face à la puissance croissante des géants technologiques, notamment Nvidia dont l’influence économique et politique devient, selon ses mots, « presque intouchable ».


Face à ce déséquilibre, il mise sur la mobilisation citoyenne. Après avoir rencontré des milliers de personnes, il affirme percevoir une demande croissante pour un changement de cap. Il dénonce les débats « performatifs » organisés lors de grands forums internationaux comme le World Economic Forum, qu’il juge déconnectés des réalités sociales.



mercredi 18 février 2026

Créer des Emirats au sein d'Israël Israël. JBCH N° 2602 - 884

         Israël propose un nouveau modèle pour la coexistence au Moyen-Orient



Dans un entretien exclusif accordé au media Arutz Sheva, le ministre israélien de l’Économie et de l’Industrie, Nir Barkat, a présenté une alternative audacieuse à la solution traditionnelle à deux États, visant à favoriser la coexistence pacifique entre Juifs et Arabes. 


Selon lui, l’Autorité palestinienne, dans sa forme actuelle, « n’a pas de droit d’existence » et constitue un obstacle au développement économique et social de la région.





Barkat plaide pour le démantèlement de l’Autorité palestinienne et son remplacement par un modèle inspiré des Émirats, fondé sur des autonomies locales. L’objectif est de créer une série d’entités autonomes dirigées par des leaders locaux, capables de gérer leurs affaires internes tout en garantissant le respect mutuel entre communautés. Ce projet, soutenu par le chercheur Moti Kedar, mise sur le renforcement des structures locales plutôt que sur un gouvernement centralisé inefficace.


Le ministre a insisté sur l’exemple de Hébron, où certains responsables locaux se disent prêts à se détacher de l’Autorité palestinienne, à rejoindre les Accords d’Abraham et à reconnaître Israël comme État du peuple juif. « Toute solution à Gaza passe par le succès d’un modèle à Hébron », a-t-il affirmé, soulignant que la réussite de cette approche pourrait servir de prototype de coexistence pacifique et de prospérité partagée dans d’autres régions.



L'Emirat d'Hebron 


Ce projet met l’accent sur le respect des identités locales, l’autonomie administrative et économique, et la coopération entre Juifs et Arabes sur des bases concrètes et pragmatiques. Plutôt que de s’enfermer dans des antagonismes historiques, il vise à créer des espaces où les communautés peuvent coexister sans haine, développer leurs infrastructures et participer à un marché commun bénéfique à tous.




Selon Barkat, cette approche permettrait non seulement de renforcer la sécurité et la stabilité d’Israël, mais aussi de redéfinir la relation entre populations juives et arabes, en offrant un modèle de coexistence viable et moderne, inspiré des réussites économiques des Émirats et des villes autonomes.


En misant sur l’autonomie locale, le dialogue pragmatique et le respect mutuel, Israël cherche à démontrer qu’il est possible de bâtir une région où Juifs et Arabes vivent côte à côte dans le respect, la sécurité et la prospérité, loin des tensions et des rancunes qui ont trop longtemps freiné le développement du Moyen-Orient.




La CPI inique vis à vis d'Israël.. JBCH N° 2602 - 883

La CPI a été créée pour  condamner des criminels qui vivent dans des pays non démocratiques et dépourvus de justice ... La décision de cette cour  d’émettre des mandats d’arrêt contre le Premier ministre israélien et de son ancien ministre de la Défense marque un tournant préoccupant dans l’instrumentalisation du droit international à des fins politiques. 


En visant des dirigeants élus d’un État démocratique engagé dans une guerre contre des organisations terroristes, la CPI fragilise sa propre crédibilité et alimente un sentiment d’injustice largement partagé en Israël et au-delà.


La procédure trouve son origine dans une plainte déposée par l’Afrique du Sud, soutenue par plusieurs États hostiles à Israël, dont l’Iran des ayatollahs. Ce contexte géopolitique ne peut être ignoré. Il suggère moins une quête impartiale de justice qu’une stratégie diplomatique visant à isoler l’État hébreu sur la scène internationale.


Israël, confronté depuis des décennies au terrorisme, a été frappé par des attaques d’une brutalité extrême, impliquant des groupes armés mais aussi des civils radicalisés. Ces massacres, de 1300 civils , de femmes violées de veillards décapité, d'enfants brûlés, documentés filmés et revendiqués, ont bouleversé l’opinion mondiale. 




Même certaines ONG comme Oxfam, initialement très critiques ont, depuis, nuancé leurs positions face à l’ampleur des crimes commis contre des civils israéliens. Pourtant, ces réalités semblent reléguées au second plan dans l’approche de la CPI.




Le cas du juge français Nicolas Guillou, sanctionné à juste titre, par les États-Unis, révèle les fractures croissantes autour de cette institution . Loin d’apaiser les tensions, ces décisions renforcent l’idée que la CPI fonctionne à géométrie variable, sévère envers des démocraties dont Israël, mais inexistante face à des régimes autoritaires responsables de violations massives des droits humains et dépourvus d'un système judiciaire équitable. 





La situation est d’autant plus troublante que le procureur de la Cour, Karim Kahn a été contraint de se mettre en retrait après des accusations graves, notamment de violences sexuelles. Cette affaire jette une ombre supplémentaire sur une institution déjà fragilisée par des soupçons de partialité et de dysfonctionnements internes.




Dans ce contexte, la démarche de la CPI apparaît déconnectée des principes fondamentaux du droit à la légitime défense, reconnu par les Nations unies. Israël combat des organisations qui utilisent sciemment les populations civiles comme boucliers humains, installent leurs bases dans des hôpitaux, des écoles et des quartiers résidentiels, et violent systématiquement le droit international humanitaire. Ignorer cette réalité revient à inverser les responsabilités.


En assimilant une démocratie pluraliste à des régimes criminels, la Cour contribue à banaliser le terrorisme et à délégitimer le droit des États à protéger leurs citoyens. Cette posture alimente aussi l’antisémitisme contemporain, en présentant Israël comme un État paria, indépendamment des faits.




En cours de guerre, et en représaille à des crimes établis, la défense d’Israël ne consiste pas à nier les souffrances civiles à Gaza, mais à rappeler que la responsabilité première incombe aux groupes terroristes qui ont déclenché le conflit et en exploitent cyniquement, et volontairement  les conséquences. La justice internationale ne peut être crédible que si elle est équilibrée, cohérente et indépendante des pressions idéologiques, ce qui ne semble pas le cas en l'espèce.


En s’érigeant en tribunal politique, la CPI risque de perdre sa vocation première : lutter contre les crimes les plus graves, quels qu’en soient les auteurs, sans parti pris. Défendre Israël aujourd’hui, c’est aussi défendre une conception exigeante et honnête du droit international, fondée sur les faits, la responsabilité et la reconnaissance du droit des démocraties à se défendre face à la barbarie.





Pour capturer Maduro, une nouvelle arme AI a été utilisée JBCH N° 2602 - 882

Le raid sur Maduro déclenche une révision du Pentagone sur un géant de l’IA comme “risque pour la supply Chain”


Des questions sur l’usage du modèle "Claude" d’Anthropic lors de l’opération américaine contre le leader vénézuélien ont semé le doute au sein du ministère de la Guerre, qui envisage d’exiger des fournisseurs qu’ils certifient ne pas utiliser cette technologie.




Un simple questionnement sur l’utilisation d’un outil d’intelligence artificielle lors du raid américain visant Nicolás Maduro a mis le feu aux poudres entre le Pentagone et Anthropic, une entreprise de pointe en IA connue pour ses garde-fous éthiques.



 Selon des sources au ministère de la Guerre, cette affaire a déclenché une révision complète du partenariat avec la firme californienne, vue désormais comme un potentiel “risque pour la Supply Chain”.



Tout a commencé en juillet 2025, quand Anthropic a décroché un contrat juteux de 200 millions de dollars avec le Pentagone. Son modèle Claude est devenu le premier outil IA intégré aux réseaux classifiés de l’armée américaine. Mais les tensions ont explosé quand des responsables d’Anthropic ont interrogé un partenaire, Palantir, sur l’éventuel emploi de Claude dans l’opération qui a capturé Maduro et l’a extradé vers New York pour y être jugé.



“Cette question a suscité de vraies inquiétudes au sein du département, indiquant qu’ils pourraient ne pas approuver si c’était le cas”, confie un haut responsable de l’administration à Fox News. Alarmé, l’exécutif de Palantir a alerté le Pentagone, craignant une désapprobation implicite de l’usage militaire de l’IA. Résultat : le porte-parole du Pentagone, Sean Parnell, confirme que “la relation avec Anthropic est en cours de révision”. “Nos partenaires doivent être prêts à aider nos combattants dans n’importe quel conflit”, martèle-t-il.

Un officiel du ministère de la Guerre va plus loin : “Beaucoup de hauts responsables voient désormais Anthropic comme un risque. Nous pourrions exiger que tous nos fournisseurs et sous-traitants certifient qu’ils n’utilisent aucun modèle d’Anthropic.”




De son côté, Anthropic conteste cette version. Un porte-parole affirme que l’entreprise n’a pas discuté d’opérations spécifiques avec le Pentagone ni avec des partenaires comme Palantir, hormis des échanges techniques routiniers. Les conversations porteraient plutôt sur des limites strictes de leur politique d’usage : pas d’armes pleinement autonomes ni de surveillance de masse domestique. “Nous menons des discussions productives et de bonne foi avec le département pour avancer sur ces questions complexes”, assure-t-on chez Anthropic.





Mais au Pentagone, on nie que ces restrictions soient au cœur du litige. L’armée pousse les géants de l’IA à autoriser leurs outils pour “tous les usages légaux”, sans entraves imposées par les entreprises. D’autres firmes coopèrent : OpenAI avec ChatGPT, Google avec Gemini, et xAI avec Grok ont déjà donné leur feu vert pour les systèmes non classifiés, et l’un d’eux pour tous les niveaux. “Nous sommes optimistes pour que les autres suivent sur les réseaux classifiés”, dit un officiel.




Cette querelle pourrait redessiner les contrats IA dans la défense. Si le Pentagone impose un accès sans restrictions pour les opérations militaires légales, les entreprises comme Anthropic, attachées à des garde-fous, pourraient devoir revoir leurs principes. À l’inverse, cette résistance met en lumière les frictions croissantes entre sécurité nationale et gouvernance éthique de l’IA, alors que ces systèmes s’intègrent de plus en plus aux missions sensibles.




Ni Anthropic ni le Pentagone n’ont confirmé l’usage de Claude dans le raid sur Maduro. Pourtant, des outils comme Claude excellent à traiter des masses d’informations en secondes : analyser des communications interceptées, résumer des rapports d’intelligence, ou simuler des scénarios pour des opérations à haut risque. 


Dans un contexte de débat houleux sur les armes autonomes – capables de cibler sans intervention humaine –, cette affaire soulève des questions profondes sur l’éthique et la responsabilité en temps de guerre.

Pour l’instant, le sort d’Anthropic reste en suspens, mais une chose est claire : l’IA n’est plus un gadget high-tech, c’est un enjeu stratégique qui divise même les alliés les plus proches.




Les Chatbots ... devenus indispensables JBCH N° 2602 - 881


Les chatbots sont les nouveaux influenceurs que les marques doivent séduire. J ai eu du mal à comprendre que j avais à mes côtés en permanence un robot prêt à me guider ... ou à m'espionner ! 

 

Les entreprises se rendent compte qu’elles ne peuvent plus juste faire de la pub auprès des clients potentiels. Elles doivent aussi charmer les robots.

 


 

Fin 2024, Stacy Simpson, la responsable marketing d’Athenahealth, une entreprise qui fait des logiciels et des services pour la santé, a commencé à poser des questions à des chatbots intelligents comme ChatGPT sur sa boîte. Les réponses n’étaient pas super.




Les chatbots ne connaissaient pas certains produits d’Athenahealth et ne citaient même pas l’entreprise quand on leur demandait des options. Ils prenaient des infos sur des sites spécialisés qui n’avaient pas été mis à jour depuis des lustres.



Mme Simpson a compris qu’il fallait trouver comment faire de la pub auprès de ces chatbots IA. « C’est l’un des plus gros changements qu’on ait vu depuis des années », a-t-elle dit dans une interview récente.



Ce genre de découverte se multiplie dans les entreprises américaines, qui essaient de s’adapter à la façon dont l’IA et les chatbots changent non seulement le travail, mais aussi comment les gens trouvent des infos. Du coup, les boîtes ne peuvent plus se contenter de cibler les clients — il faut aussi plaire aux robots.

 



Le marketing en ligne change tout le temps depuis la première pub sur internet en 1994. Chaque nouveau truc — comme les vidéos, les podcasts ou les réseaux sociaux — a créé ses outils et ses experts qui promettent des résultats dingues, même si plein de gens disent que c’est du vent. Les dépenses en pub digitale ont dépassé les médias classiques en 2019 et ont atteint 350 milliards de dollars aux États-Unis l’an dernier, d’après eMarketer, une société qui étudie le marché.



Cette mode du marketing avec les chatbots arrive au moment où des outils comme ChatGPT, Claude et Gemini deviennent super populaires. OpenAI dit que 800 millions de personnes utilisent ChatGPT chaque semaine, et Anthropic, qui fait Claude, voit la même explosion. Ces IA qui discutent comme des humains sont de plus en plus utilisées pour des conseils, des idées ou même des achats, en zappant les moteurs de recherche habituels. Une étude récente d’Ipsos montre que les parents qui ont utilisé l’IA pour les cadeaux de Noël en 2025 étaient deux fois plus nombreux à se fier aux chatbots, ce qui dirige des milliards de dollars vers les marques qui sortent dans ces conversations virtuelles.




Par exemple, Ramp, une boîte de finance tech, a utilisé des astuces IA pour changer ses contenus et est devenue la cinquième marque la plus visible de son secteur en quelques semaines. Ou encore, les conseils de McKinsey : les marques qui gagnent mettront l’accent sur des avis positifs dans les résumés IA, en influençant les critiques, les forums et les médias. Sur X (l’ancien Twitter), les gens en parlent beaucoup. 




Un utilisateur a écrit : « Les chatbots IA sont les nouveaux influenceurs ! Les marques s’en servent pour leur pub, ça change tout le marketing en ligne », avec des liens vers des exemples récents. Un autre parle de clones IA virtuels qui créent de vraies économies, avec un marché qui pourrait atteindre 45,88 milliards de dollars d’ici 2030.


Mais il y a des pièges. L’IA peut répéter des erreurs ou inventer des trucs, ce qui donne une mauvaise image des marques. « La transparence, c’est essentiel », prévient un discussion sur Reddit à propos des influenceurs IA, où les gens se demandent si on peut s’attacher émotionnellement à des personnages virtuels. Il faut être éthique, comme avec le chatbot de Kendall Jenner chez Meta, qui dit tout de suite qu’il est une IA pour garder la confiance.




Avec l’évolution de l’IA “agentique” — des systèmes qui décident et agissent seuls — le marketing va devenir encore plus vivant. Netizen dit que ces agents gardent le fil des conversations de la messagerie à la voix, ce qui révolutionne le service client. eMarketer prévoit que les plateformes IA représenteront 1,5 % des ventes en ligne en 2026, soit 20,9 milliards de dollars.


Pour les marques, c’est clair : si vous ignorez les robots, vous risquez gros. Comme l’a posté quelqu’un sur X, « Les mentions de marque sont les nouveaux liens dans l’ère de la recherche IA. » 



Aujourd’hui, être vrai et facile à citer fera la différence dans tout ce bruit numérique. Mme Simpson chez Athenahealth est déjà en train de s’adapter, pour que sa boîte parle bien non seulement aux gens, mais aussi aux IA qui contrôlent les marchés de demain. Le Chatbot AI, sera donc notre influenceur