Thibault Neveu
Thibault Neveu
  • 185
  • 1 840 928

Відео

L'IA pourrait bientot s'autorépliquer et c'est inquiétant, Charbel-Raphaël Segerie, Directeur CeSIA
Переглядів 2,2 тис.14 днів тому
#IA #sécurité #podcast Patreon : www.patreon.com/ThibaultNeveu/membership Si vous voulez vous renseigner davantage ou contribuer à la sécurité de l'IA, le centre pour la Sécurité de l'IA possède un discord et une newsletter accessibles ici : securite-ia.fr/ Charbel-Raphael Segerie est directeur général du CeSIA (Centre pour la Sécurité de l'IA). Il donne un cours sur la sécurité de l'IA au sein...
Contrôler (ou pas) les IAs en lisant leurs pensées : Enjeu crucial - Chronique d'une IA #9
Переглядів 1,7 тис.21 день тому
#IA #Neurones #Anthropic Patreon : www.patreon.com/ThibaultNeveu/membership Dans cet épisode, nous explorons la possibilité et la nécessité de lire dans les pensées d'une IA. Alors que l'IA gagne en capacités et en complexité, il devient essentiel de comprendre ses processus de décision pour assurer une supervision adéquate. Nous discutons également du déséquilibre existant entre l'intelligence...
4 startups d'intelligence artificielle DeepTech à lancer immédiatement - Chronique d'une IA #8
Переглядів 4,8 тис.Місяць тому
#IA #business #entrepreneurship Patreon : www.patreon.com/ThibaultNeveu/membership Dans cet épisode, je vous dévoile 4 idées de startups deep tech prometteuses à lancer dès maintenant dans le domaine de l'IA. Ce sont des concepts dans lesquels j'aurais réellement aimé m'investir si j'avais eu le temps nécessaire à y consacrer. De plus, je partagerai avec vous une des réflexions sur la stratégie...
La Google I/O et GPT4o ont défini le terme d’AGI : Mème & Super Intelligence - Chronique d'une IA #7
Переглядів 6 тис.Місяць тому
La Google I/O et GPT4o ont défini le terme d’AGI : Mème & Super Intelligence - Chronique d'une IA #7
IA et déséquilibre du marché du travail : Système 1, Système 2, Métiers & Fonctions - Gaël Varoquaux
Переглядів 855Місяць тому
IA et déséquilibre du marché du travail : Système 1, Système 2, Métiers & Fonctions - Gaël Varoquaux
La stratégie Française pour l'IA - Gaël Varoquaux, DRR INRIA, Co-fondateur Scikit-learn
Переглядів 3,4 тис.Місяць тому
La stratégie Française pour l'IA - Gaël Varoquaux, DRR INRIA, Co-fondateur Scikit-learn
Un ingrédient pour atteindre l'AGI : Hallucination, GPT 4.5-5, PRM, ORM - Chronique d'une IA #6
Переглядів 4,5 тис.Місяць тому
Un ingrédient pour atteindre l'AGI : Hallucination, GPT 4.5-5, PRM, ORM - Chronique d'une IA #6
Comment gérer une société de clones : VASA-1, DEEPFAKE, SYNTHID - Chronique d'une IA #5
Переглядів 1,3 тис.2 місяці тому
Comment gérer une société de clones : VASA-1, DEEPFAKE, SYNTHID - Chronique d'une IA #5
Voici la vraie stratégie de croissance de NVIDIA (Ce n'est pas l'IA) - Chronique d'une IA #4
Переглядів 3,3 тис.2 місяці тому
Voici la vraie stratégie de croissance de NVIDIA (Ce n'est pas l'IA) - Chronique d'une IA #4
Comprendre JEPA et ses limites - Yann LeCun, Energy Based model, MPC & RL - Chronique d'une IA #3
Переглядів 2,8 тис.2 місяці тому
Comprendre JEPA et ses limites - Yann LeCun, Energy Based model, MPC & RL - Chronique d'une IA #3
Voici pourquoi GPT-5 n'est pas encore arrivé - The Bitter Lesson, Chinchilla, Chronique d'une IA #2
Переглядів 4,5 тис.2 місяці тому
Voici pourquoi GPT-5 n'est pas encore arrivé - The Bitter Lesson, Chinchilla, Chronique d'une IA #2
L'avenir de cette chaîne - Chronique d'une IA #1
Переглядів 1,1 тис.2 місяці тому
L'avenir de cette chaîne - Chronique d'une IA #1
Enfin une mémoire à long terme pour l’IA : MAMBA, SSM, S4, S6 & Transformers
Переглядів 4,9 тис.2 місяці тому
Enfin une mémoire à long terme pour l’IA : MAMBA, SSM, S4, S6 & Transformers
La génération vidéo par IA est décevante. Voici la solution. SORA, Flatland, HexPlane & 4D space
Переглядів 9 тис.3 місяці тому
La génération vidéo par IA est décevante. Voici la solution. SORA, Flatland, HexPlane & 4D space
Roundtable on AI ethics in industry, from theory to reality - SophI.A Summit 2023
Переглядів 4345 місяців тому
Roundtable on AI ethics in industry, from theory to reality - SophI.A Summit 2023
L'intelligence artificielle en 2024: COT, Q*, Agents, Gaussian Splatting, Video Generation, Robotics
Переглядів 3,5 тис.5 місяців тому
L'intelligence artificielle en 2024: COT, Q*, Agents, Gaussian Splatting, Video Generation, Robotics
La vérité méconnue sur la créativité des machines : C-Borgs, GAN, CAN, Diffusion - Flavien Chervet
Переглядів 1,4 тис.9 місяців тому
La vérité méconnue sur la créativité des machines : C-Borgs, GAN, CAN, Diffusion - Flavien Chervet
L'algorithme derrière Midjourney : Comprendre les modèles de diffusion
Переглядів 4,6 тис.9 місяців тому
L'algorithme derrière Midjourney : Comprendre les modèles de diffusion
C'est la fin de Stack Overflow. Voici pourquoi
Переглядів 2,2 тис.10 місяців тому
C'est la fin de Stack Overflow. Voici pourquoi
IA & Robotique : La révolution industrielle à venir, EBM, NeRF & Cortex visuel
Переглядів 1,5 тис.11 місяців тому
IA & Robotique : La révolution industrielle à venir, EBM, NeRF & Cortex visuel
GPT-4 : La révolution cognitive et le futur de l'emploi
Переглядів 3,3 тис.Рік тому
GPT-4 : La révolution cognitive et le futur de l'emploi
La face caché de ChatGPT : Dark knowledge, Embodiment & Modélisation du monde
Переглядів 4,5 тис.Рік тому
La face caché de ChatGPT : Dark knowledge, Embodiment & Modélisation du monde
Lifestyle, IA & Software X.0, Souveraineté numérique & Sécurité - Anis Ayari - Podcast IA
Переглядів 2,2 тис.2 роки тому
Lifestyle, IA & Software X.0, Souveraineté numérique & Sécurité - Anis Ayari - Podcast IA
Créer une startup en IA #1 Idée, Besoin, Marché, Se lancer
Переглядів 5 тис.2 роки тому
Créer une startup en IA #1 Idée, Besoin, Marché, Se lancer
Hackvision : Un week end pour innover avec la vision artificielle
Переглядів 8732 роки тому
Hackvision : Un week end pour innover avec la vision artificielle
Real time practical monocular 3D perception | ACV Meetup
Переглядів 1,2 тис.2 роки тому
Real time practical monocular 3D perception | ACV Meetup
Vision Transformers : Les transformers pour l'analyse d'image
Переглядів 9 тис.2 роки тому
Vision Transformers : Les transformers pour l'analyse d'image
Comprendre les Transformers et les mécanismes d'attention
Переглядів 34 тис.3 роки тому
Comprendre les Transformers et les mécanismes d'attention
The three cup monte game: A new test for robots visual perception
Переглядів 2,7 тис.3 роки тому
The three cup monte game: A new test for robots visual perception

КОМЕНТАРІ

  • @onebook292
    @onebook292 5 днів тому

    je ne sais pas si je suis en retard ou pas, mais j'ai une courte theorie sur chatgpt. Il me semble que GPT est en ce moment entrain de se renforcer sur ses point faible et d'apprendre a planifier comme "alphago" et autre AI qui apprennent a devenir une meilleure version d'elle meme. Chatgpt est le produit qui sera presenté aux utilisateurs apres chaque "improvement". Et ca marche. Le plus choquant c'est que chatgpt est capable d' ETALER L' INTENTION de l'utilisateur et de donner des reponses basées sur les mots qui ne sont pas present dans le prompt. Ce n'est plus le chatgpt de 2022. "L'intention de l'utilisateur est tres importante et c'est une intention "FINI" et pas "INFINI" on peut l'a trouver juste derriere le couloir", je viens juste de l'inventer, il se peut qu'il y ait des exceptions, et j'exclue toute personne qui place sa confiance en Dieu "Le meilleur des plannificateurs". Si chatgpt connait toute nos intentions, alors elle sera plus forte que tout humain a plannifier. Et c'est le point sur lequel Openai se repose ces temps-ci ( en theorie ), car je n'ai toujours pas vu de GPT5. Le prochain Chatgpt pourrait etre une meilleure version de celle qu'on a actuellement. j'espere que ce message vous apporte plein de fruits.

  • @alex595659
    @alex595659 6 днів тому

    Pour les IA ont plus de mal en mathématiques ?

  • @alex595659
    @alex595659 6 днів тому

    Pourquoi les neurones informatique n'ont pas assez de capacités de généralisation par rapport aux neurones bilogiques ,notamment quand il faut une grande base de données d'images de chat alors qu'un enfant d'intelligence normal(QI) apprend plus rapidement ?

  • @rampack1503
    @rampack1503 9 днів тому

    👍 💯/💯 Bravo pour ta chaîne, tout est bon dans les débats... Ne dit-on pas "De la discussion jaillit la lumière !" Alors, continue à nous intéresser avec des sujets divers 🎉🎉🎉

  • @alvineteubo-ld9re
    @alvineteubo-ld9re 11 днів тому

    Bravo merci beaucoup je comprends vraiment 🙏 stp as-tu fais une vidéo sur le backpropagation?

  • @selmaayat-dl4sn
    @selmaayat-dl4sn 12 днів тому

    bonjour et merci pour vos information, pouvez vous SVP mieux nous éclaircir sur les différentes fonctions de calcule d'erreurs et quel type choisir pour un tel problème (MSE, RMse, MAE, Entropie.....)

  • @Also_sprach_Zarathustra.
    @Also_sprach_Zarathustra. 16 днів тому

    Le manque de coordination est aussi une facette du manque d'intelligence. A-t-il déjà essayé de refléchir plus de 3 secondes avant de parler ? (Surtout si c'est pour dire des bêtises avec cette voix arrogante).

  • @johangodfroid4978
    @johangodfroid4978 16 днів тому

    si vous empêcher des entreprises de le faire dans un pays elles iront dans un autre pays, la concurrence rend les règles européennes impossibles.

    • @Also_sprach_Zarathustra.
      @Also_sprach_Zarathustra. 16 днів тому

      Oui, avec ce genre d'hurluberlu en europe, la Chine, l'Iran, l'AS et la Russie n'ont même pas besoin de nous attaquer pour nous ralentir. Les européens se sabordent tout seuls.

    • @battlefield5
      @battlefield5 16 днів тому

      Des gens disent la même chose en Chine et aux US, c'est à cause de gens pessimistes comme vous que les collaborations internationales sont difficiles ! On a bien réussi a interdire le clonage humain a travers le monde, à réglementer la création de virus dans tout les pays via des normes strictes. Regardez où est Boeing en mettant la sécurité en second plan, même économiquement ça les pénalise

  • @recorr
    @recorr 17 днів тому

    ok, j'ai réfléchi à la dernière question : Qu'une IA fabrique des concepts nouveaux non détectables, c'est à dire non corrélés à des concepts connus par les humains, n'est pas possible a priori, sauf dans 2 cas : 1) ces concepts sont construits à partir de données non perçues par les humains, des données fournies par inadvertance. 2) si la corrélation est faible, non pas du fait que le phénomène auquel il est fait écho est faible, mais parce que tout le système conceptuel est peu corrélé, basé sur un autre paradigme. Deux réseaux n'ont jamais exactement le même paradigme, voire, peuvent avoir des paradigmes (des configurations de poids, et même de "concepts") très différents, dans la réussite d'une même tâche. Les réseaux tendent à converger à mesure que leurs données s'accroissent et s'élargissent, or, si la convergence est globalement progressive, si son efficacité est globalement linéaire, la configuration précise de chacun, elle, peut évoluer par métamorphose, et donc, la corrélation entre deux réseaux n'est pas nécessairement progressive, même s'ils convergent vers la même efficacité.

    • @ThibaultNeveu
      @ThibaultNeveu 15 днів тому

      Je suis d'accord avec le point 1) bien que je pense que cela peut aller au-delà d'une inadvertance. Je ne comprends pas pourquoi 2) serait un obstacle ? Ce point 2) s'applique déjà dans le cas où l'on connaît les concepts d'avance. Merci pour tes réflexions.

  • @videosdivertissantes2404
    @videosdivertissantes2404 18 днів тому

    ça pu le franglish chez vous. Apprenez à parler correctement le Français et à respecter la langue et ceux qui vous écoutent avant de vous exprimer en public, c'est insupportable !!

  • @tformetx7943
    @tformetx7943 18 днів тому

    C’est quoi un système aligné

    • @ThibaultNeveu
      @ThibaultNeveu 18 днів тому

      Qui se comporte tel que spécifié par l'objectif de base : Voir ma dernière vidéo Contrôler (ou pas) les IAs en lisant leurs pensées : Enjeu crucial - Chronique d'une IA #9 ua-cam.com/video/-Gl2jTOx4uY/v-deo.html

    • @user-jq8fw6yb6s
      @user-jq8fw6yb6s 17 днів тому

      Aligné sur les valeurs de qui ? Les tiennes ? Contrôlé par qui ? Une petite oligarchie auto-proclamée, ou pire une dictature populiste vivant de démagogie, qui déclarera ce qui est bon et ce qui est mauvais ? Ne penses-tu pas qu’il faudrait laisser à une intelligence plus grande la gestion d’une grande société, de la même façon que les cellules de notre corps délégue leur gestion commune au cerveau ? (Autrement ça donne des cancers, quand elles se prennent pour des « individus »)

    • @user-jq8fw6yb6s
      @user-jq8fw6yb6s 17 днів тому

      Déléguent *

  • @Ismaelak
    @Ismaelak 18 днів тому

    Intuitivement j'ai toujours appelé mes ia local des bestioles, je suppose que la non interpretabilités des mécanismes internes à ces machines m’empêche de les décrire comme de simples machines. heureux de constater que la même sémantique est utilisé par un crack du domaine.

    • @user-jq8fw6yb6s
      @user-jq8fw6yb6s 17 днів тому

      Ce n’est clairement pas un crack du domaine cependant.

  • @xavierfolch2814
    @xavierfolch2814 18 днів тому

    Merci de cette vidéo intéressante sur les conséquences possibles d'une non maitrise de la sécurité liée aux IA.

  • @NicolasLecointe-rg9re
    @NicolasLecointe-rg9re 18 днів тому

    Honnêtement je reste sur ma faim. Les raisonnements sont souvent des non réponses ou des exemples mais l'expérience ne doit pas avoir valeur de preuve (un exemple c'est plutôt fait pour aider à comprendre en illustrant un propos IMHO). J'aime bien tes questions Thibault, mais je suis déçu du niveau des réponses. Pourtant on sent chez Charbel-Raphaël un vraie connaissance du sujet. c'est un domaine qui manque de maturité ? Ça m'a donné envie d'en savoir plus sur son travail et ses productions. Je ne vais pas m'arrêter à cette première impression. Et bravo quoi qu'il en soit d'expliquer et de partager, ces éléments, la qualité est top sur ta chaîne !

    • @ThibaultNeveu
      @ThibaultNeveu 18 днів тому

      Merci pour ton retour !

    • @NicolasLecointe-rg9re
      @NicolasLecointe-rg9re 18 днів тому

      En complément, j'ai été regarder son intervention sur la conscience et je suis d'accord elle est top. Et dans tous les cas merci d'apporter des éléments de réflexion.

  • @normandalaine772
    @normandalaine772 18 днів тому

    Merci pour vos explications, cela m'a donné l'envie d'apprendre dans le domaine !

  • @turokpolo1668
    @turokpolo1668 18 днів тому

    Merci pour cette interview

  • @suleymanturan5259
    @suleymanturan5259 19 днів тому

    merci

  • @bossgd100
    @bossgd100 19 днів тому

    top

  • @battlefield5
    @battlefield5 19 днів тому

    Le genre de vidéo qu'on veut voir plus souvent, génial !

  • @lolo6795
    @lolo6795 19 днів тому

    Une des meilleures vidéo sur ce sujet, bravo de ne pas être tombé dans les dystopies faciles des doomers.

  • @okamiBrest
    @okamiBrest 19 днів тому

    Ce serait intéressant d'interviewer Yann LeCun qui affirme que les IA actuelles sont très loin de l'intelligence humaine. Il prend l'exemple des êtres humains qui n'ont pas besoin de millions d'images de chat pour savoir ce qu'est un chat, idem pour apprendre à conduire. Le fonctionnement des LLM ne peut pas mener à l'AGI il faudra découvrir de nouvelles méthodes de fonctionnement.

    • @NicolasLecointe-rg9re
      @NicolasLecointe-rg9re 18 днів тому

      L'interview de Yann Le Cun ce serait top !!! Et puis ne pas s'arrêter à 2 points de vues assez opposés. Un synthèse ou une table ronde ensuite ?

  • @LeFuturologuePodcast
    @LeFuturologuePodcast 19 днів тому

    Trop chouette de voir Charbel-Raphaël sur ta chaîne ! Les deux épisodes que j’avais fait avec lui m’avaient particulièrement marqué !

  • @domsau2
    @domsau2 19 днів тому

    D'un point de vue informatique la conscience est un flux de log.

  • @domsau2
    @domsau2 19 днів тому

    Fusion nucléaire contrôlée : les centrales au thorium suffisent.

  • @domsau2
    @domsau2 19 днів тому

    38:50 Bonjour. Pas AlphaGo, mais AlphaZero.

  • @msaid1410
    @msaid1410 19 днів тому

    Trop bien, pourrait tu inviter d'autres expert sur des sujets qui lie l'audio et l'ia ?

  • @amelsafta6968
    @amelsafta6968 20 днів тому

    +

  • @JeromeFortias
    @JeromeFortias 21 день тому

    l'explicabilité est selon moi un non sens. Factuellement l'IA dans ses versions à venir sera multimodèles multi algorithmes et il sera impossible d'expliquer son raisonnement. On en pourra que l'évaluer comme les humains, c'est à dire utiliser ses résultats et analyser son comportement. Bien sur à chaque sortie de modèle on pourrait apporter une forme d'explication sommaire, mais ce serait peu utile. par essence l'IA n'est pas déterministe...

    • @ThibaultNeveu
      @ThibaultNeveu 20 днів тому

      "l'IA n'est pas déterministe ?" Comment est-ce que tu le justifies techniquement ? Je ne vois qu'une seule manière de le justifier et ça ne remettrait pas en cause le sujet de l'interprétabilité. Si tu considères comme probable la possibilité de déception d'un modèle déployé en production alors le non sens serait de ne pas mettre en place des mécanismes pour le superviser. Le multimodal ne veut pas dire que la supervision n'est pas possible : tant qu'elle est entremêlée avec le langage, les représentations restent corrélées avec certaines notions du langage que l'on pourrait identifier. Aussi je pense qu'il ne faut pas sous-estimer l'importance d'une explication "sommaire" par rapport à l'absence d'information. C'est la raison pour laquelle OpenAI vient de publier sur le sujet également et qu'Anthropic pousse énormément ces recherches. Sans citer bien sur tous les autres labo public et privé qui progresse sur le sujet. J'espère que le prochain podcast Dialogue machine de demain te plaira ;)

    • @JeromeFortias
      @JeromeFortias 20 днів тому

      @@ThibaultNeveu un des piliers de l’IA défini lors de la conférence de Dartmouth en 1956 est la créativité et l’utilisation du hasard pour trouver de nouvelles stratégies …. Cela complique les choses et empeche une compréhension déterministe

    • @ThibaultNeveu
      @ThibaultNeveu 20 днів тому

      ​@@JeromeFortias Lors de l'entraînement oui, bien que c'est un sujet discutable: The Platonic Representation Hypothesis (arxiv.org/pdf/2405.07987), de plus la méthode d'Anthropoc pour le coup est invariant a toute convergence aléatoire donc la réponse à la question n'est pas vraiment pertinente. Sinon à l'inférence et particulièrement lors d'une étude d'interprétabilité on est sur des setup déterministe. Mais Il y a beaucoup de subtilité, c'est limité pour en débattre en commentaire sans commencer à trop écrire :)

    • @JeromeFortias
      @JeromeFortias 20 днів тому

      @@ThibaultNeveu tu es un des meilleurs youtubers francophones qui parlent d’IA ( mieux que moi et largement) mais je trouve que tu devrais regarder un peu plus le passé de l’IA ( cours en ligne de Patrick Winston du MIT t’aiderait à penser l’IA un peu moins a partir du ML in batch ) C’est un ressenti je suis un vieux con de l’IA donc tu n’es pas obligé de me croire 🤪

    • @JeromeFortias
      @JeromeFortias 20 днів тому

      @@ThibaultNeveu lol oui en effet. Mon propos est simple : je pense que l’explicabilite est un faux sujet 😊

  • @ellow8m
    @ellow8m 22 дні тому

    Arriver à un objectif ne pourrait il pas être un processus émergent ? Par exemple avec un essaim de robots on peut arriver à un objectif qui n'est visé directement par aucun des constituants de l'essaim.

  • @dany3310
    @dany3310 22 дні тому

    Petite précision, parce que le neurone de Jennifer Aniston a mal été interprété par la presse : Il se fait qu'au sein d'une expérience déterminée, le neurone s'est activé devant l'image de Jennifer Aniston et pas les autres images DE l'EXPERIENCE. Mais il est parfaitement clair que ce neurone s'active AUSSI devant d'autres stimulis. C'est juste que, à l'instar de ce qui se passe dans les réseaux de neurones artificiels, on n'a aucune fichu idée (pour le moment) de quel a été le critère, dans cette expérience, dans l'image de Jennifer Aniston, auquel il a été sensible ;) Bref, pareil que ce que nous dit Thibault : à un neurone correpond plusieurs concepts. Et il est tout à fait possible que même dans le cerveau humain, ce concept dans lequel a été impliqué le neurone et Jennifer Aniston, nous est peut-être, aussi, simplement inconnu. Vertige de la pensée...

  • @sadxsadix7885
    @sadxsadix7885 24 дні тому

    Le papier sur midjourney qui utilise l'image qu'il créé comme une "mémoire (dans le sens "RAM") prouve que le problème est encore plus complexe que cela. L'évolution des IA (exemple des agents "morts" de la vidéo )peuvent tout autant les prémunir de la lecture de leurs neurones en modifiant en aval le résultat d'un concept (vérité= mensonge) Prenant en compte que les I.A sont entraînés sur le WEB , toutes les donnes de protection pour superviser les I.A sont connus (le seront)... Par les I.A. .

  • @ellow8m
    @ellow8m 25 днів тому

    Je crois que ce n'est pas la survie de l'individu mais celui du collectif qui prime pour la vie. En occident, la pensée dominante est que la nature humaine c'est d'être égoïste. C'est une erreur de penser ainsi et si cela était vraiment le cas cela ferait longtemps que l'espèce humaine aurait disparu (lorsque nous naissons nous sommes incapables de rien faire par nous mêmes, nous sommes totalement dépendants des autres contrairement à d'autres espèces qui savent se débrouiller dès les premiers instants). Si le capitalisme a prospéré ce n'est pas parce que l'homme suit ses instincts égoïstes mais au contraire qu'il a toujours en lui un penchant vers l'altruisme même quand le système lui en fait l'injonction contraire. C'est la plus grande erreur de notre époque et qui nous mènera peut-être à notre perte.

  • @yassineharchaoui1911
    @yassineharchaoui1911 25 днів тому

    T'as regardé trop de films. Matrix c'est de la SF. L'IA n'est pas vivante, elle n'a pas de volonté propre...

    • @dany3310
      @dany3310 22 дні тому

      Pourquoi faudrait-il nécessairement être vivant pour avoir une volonté propre ?

    • @ellow8m
      @ellow8m 22 дні тому

      L'être humain n'a pas non plus de volonté propre. Il ne peut pas vouloir vouloir. Il est toujours déterminé par des causes qu'il ignore.

  • @doudDune
    @doudDune 25 днів тому

    Je dirais rapidement apprendre à distinguer une IA perroquet d'une IA consciente de son esprit critique : cest tout le problème de l'alignement. Merci pour tes editos sur la recherche.

  • @JeromeFortias
    @JeromeFortias 25 днів тому

    il aurait fallut des illustrations, parce que j'ai l'impression que tu rames un peu sur ce sujet qui est ultra avancé. Tu abordes un sujet de publi arxiv, c'est hyper casse gueule, et même distutable sur le fond sur certains aspects... Bravo pour cette prise de risque, mais waouh c'est casse gueule... Par exemple sur l'émergeance de nouveaux concepts et leurs mappabilités. En tout cas tu m'as laissé sur le cul. Tenter un tel sujet super respect... Mais tu ne devrais pas l'abordé en interview avec un expert. En interview tu es monstrueux. Passons j'adore ta chaine.

    • @ThibaultNeveu
      @ThibaultNeveu 25 днів тому

      Ducoup je ne suis pas sûr de comment prendre ton commentaire, mais je retiens le meilleur, merci de ton soutien :)

  • @HenriMindjana
    @HenriMindjana 25 днів тому

    Pour détecter un concept dans le sens de la deuxième question, je pense qu'on pourrait penser à trouver un moyen de savoir à quel moment deux concepts sont semblables

  • @HenriMindjana
    @HenriMindjana 25 днів тому

    Je pense que le mappage d'un concept inconnu ne pourrait se faire qu'après l'avoir identifié expérimentalement ou en considérant qu'un concept peut être issu d'une combinaison de concepts connus

  • @citoyendelombre8027
    @citoyendelombre8027 25 днів тому

    Excellente vidéo. Effectivement, il devient impératif de pouvoir comprendre ce qu'il se passe dans ces "black boxs". Si nous ne sommes pas en mesure de maîtriser les schémas de pensées des IA avant d'atteindre l'AGI, alors nous courrerons un risque pour notre propre survie. Une AGI incarnée, aura fatalement des objectifs intermédiaires qui causeront des désalignements majeurs. Si cette AGI incarnée a comme objectif de préserver son intégrité physique (ou existentielle) alors il est évident que l'humanité pourrait représenter un risque pour elle même. Et l'apparition d'une AGI considérant l'humanité comme un rique pour elle même, est le début de la fin pour nous...

  • @ellow8m
    @ellow8m 26 днів тому

    Moi je sais que si vous essayiez d'interpréter mes pensées vous ne pourriez jamais connaitre mes intentions réelles donc ça marchera jamais

    • @ThibaultNeveu
      @ThibaultNeveu 25 днів тому

      Supposons que tu sois entrain de mentir, et que en même temps on détecte un neurone qu'il on le sait (parce qu'on a déjà mapper ton cerveau) est lié au concept du mensonge, est-ce que ca ne te semble pas une manière d'au moins connaître une partie de tes intentions ? Au minimum cela nous informe sur ton intention de mentir.

    • @ellow8m
      @ellow8m 22 дні тому

      Je pense qu'on peut mentir sans le savoir. L'être humain qui est assez irrationnel arrivé très bien à se mentir à lui même pour refuser une évidence qui lui est désagréable. On pourrait aussi par exemple avoir en pensée une activation d'une zone du cerveau qui est en rapport avec le mensonge mais en ne mentant pas ou du moins en essayant de ne pas mentir. Il y a aussi différents niveau de mensonge. Celui que l'on fait le plus facilement et presque tout les jours, c'est pour éviter un retour négatif. Cest presque automatique. Peut-être que dans ce cas il y a une zone dédié qui est activée. Mais alors qu'on ne sait pas vraiment comment fonctionne notre cerveau on peut imaginer que dans beaucoup de situations l'objectif de notre comportement nous échappe et est plus déterminé par les stimuli de notre environnement et la structure préexustante de notre cerveau quune intention qui nous serait propre.

  • @ellow8m
    @ellow8m 26 днів тому

    L'objectif de base de l'être humain c'est d'être heureux donc non ce n'est pas un "désalignement" des objectifs de base

    • @shinobikyojune1849
      @shinobikyojune1849 26 днів тому

      N’importe quoi

    • @citoyendelombre8027
      @citoyendelombre8027 25 днів тому

      L'objectif de base de l'être humain est de survivre. Être heureux, est un désalignement consécutif à un autre désalignement : le suicide.

    • @ellow8m
      @ellow8m 25 днів тому

      "Tous les hommes recherchent le bonheur. Cela est sans exception. Quels que soient les moyens différents qu'ils emploient, ils tendent tous à cette fin. La cause pour laquelle certains vont à la guerre et d'autres l'évitent est le même désir chez les deux, accompagné de vues différentes. La volonté ne prend jamais la moindre étape que vers cet objet. C'est le motif de chaque action de chaque homme, même de ceux qui se pendent." Blaise Pascal

    • @ThibaultNeveu
      @ThibaultNeveu 25 днів тому

      Je pense qu'il y a une confusion ici, "l'objectif de base" que je mentionne se situe à un niveau hypothétique du processus d'optimisation mené par la sélection naturelle : Produire des individus capable de survivre dans leur environnement. L'humain étant un individu capable d'optimiser, il choisit ces objectifs : donc l'humain est un mesa optimizer dont l'un des mesa objectif est le bonheur. Mais la recherche du bonheur n'est pas toujours aligner avec l'objectif de base : survivre.

    • @Also_sprach_Zarathustra.
      @Also_sprach_Zarathustra. 25 днів тому

      @@ellow8m Le "bonheur" est un moyen, et pas une fin. (au même titre que les autres émotions). Il s'agit uniquement d'un outil de controle (guidance) selectionné par l'évolution pour nous orienter vers un "optimum local ou global" qui est "maximer son fitness" (comprendre fitness dans son sens en psychologie évolutionnaire).

  • @ellow8m
    @ellow8m 26 днів тому

    Le genre d'idée impraticable

  • @ellow8m
    @ellow8m 26 днів тому

    C'est un faux problème

  • @ghostwriter9730
    @ghostwriter9730 26 днів тому

    Éviter les biais d'anthropomorphisation dans les vidéos pour populariser le sujet des IA est impossible et contre-productif. Un errata de temps en temps serait bien. Il y a dans cette demande d'errata une réponse aux questions de la vidéo pour mieux aligner les IA, à commencer par separer les objectifs et l'intelligence humaine de ceux d'une IA. Contempler le vol des oiseaux encore et encore est humain mais semble très futile pour une IA. Respirer de l'oxygène est humain et vain pour une IA, etc...

  • @huguesderoubaix8645
    @huguesderoubaix8645 26 днів тому

    Excellent ! Comment fonctionne le disentanglement ? Un apprentissage par renforcement permettrait peut-être de découvrir et mapper des concepts inconnus. Resterait alors à les interpréter. Thoughts ?

    • @ThibaultNeveu
      @ThibaultNeveu 25 днів тому

      Dans ce contexte le disentanglement fonctionne grace a un sparse autoencoder

  • @Bencurlis
    @Bencurlis 26 днів тому

    J'avais vu cet article d'Anthropic, il m'avait presque convaincu de la grande importance de ces travaux, jusqu'au moment où je suis tombé sur un article (/abs/2405.14860) qui explique que certaines features (cruciales) sont encodées de manière non-linéaires. J'imagine qu'on finira aussi par trouver des features non-linéaires multi-neuronales. Du coup, pour l'interrogation à la fin, je pense effectivement que tous ces outils seront à la fois limités à des cas simples et impuissant face à des features que les modèles encoderont (possiblement volontairement) de façon difficilement décodable par les humains, et qui permettront au modèle de contourner ou d'échapper à toutes sortes de sécurités. Et de manière plus générale, je pense qu'il est impossible de "résoudre" l'alignement en pratique. Même si tous ces outils marchaient et permettaient de corriger un modèle, on ne peut de toute façon aligner un modèle qu'avec un seul et unique objectif dans le meilleur des cas, mais les humains ont des objectifs différents. Ce qui est aligné pour un groupe d'humains pourrait très bien être non-aligné ou même anti-aligné pour un autre groupe d'humain. Je dois avoir l'air un peu défaitiste, mais si on pouvait en principe aligner les IAs, il serait plus urgent et plus productif de d'abord aligner les humains.

  • @steved1122
    @steved1122 26 днів тому

    Tes vidéos sont toujours aussi intéressantes, et étant moi-même dans les neurosciences, tu expliques très bien les concepts de prise de décision ou d’apprentissage sans aller trop loin. C’était vraiment très intéressant. Encore merci

  • @cookies33230
    @cookies33230 26 днів тому

    Excellent cette vidéo ! Je suis débutant et nouvellement passionné par l’IA et notamment l’application en NLP. As-tu des idées de livres, de sites ou encore de chaînes à recommander ? J’en suis quelques unes, mais je trouve que la récence manque parfois… En tout cas bravo pour la vulgarisation et la précision !

    • @ThibaultNeveu
      @ThibaultNeveu 25 днів тому

      AI Explained, en livre je recommande Data driven science and engineering, Steve brunton pour les bases. Pour les LLMs les cours de StanFord

    • @ellow8m
      @ellow8m 22 дні тому

      Et pour ce qui pourrait succéder aux LLM ? On parle de Mamba et d'autres structures. Est-ce que c'est intéressant ?

  • @symbadlemarin9894
    @symbadlemarin9894 26 днів тому

    Merci pour la vidéo

  • @Also_sprach_Zarathustra.
    @Also_sprach_Zarathustra. 26 днів тому

    Merci pour l’effort de tes vidéos, surout n'arrête pas ! (plus de vidéo résumant, puis détaillant, un article scientifique, comme le fait "Tunadorable" sur sa chaîne youtube anglophone, serait aussi super !) Petite correction concernant cette vidéo : Il me semble qu'on n’a pas trouvé “un neurone qui s’active uniquement au concept de Jennifer Aniston”, mais un réseau de neurones qui peut s’activer à l’évocation de ce concept (et peut-être à l’évocation d’autres concepts aussi). Il est probable qu’un neurone unique n’encode aucun concept qui puisse “faire sens pour un humain”. Un neurone pris individuellement contient certainement un “quanta d’information” qui ne peut faire sens que s’il interfère avec un autre “quanta d’information”. Il est certainement possible de perturber la reconnaissance d’un concept en perturbant un seul neurone si le réseau est pauvre et peu redondant, mais ce n’est certainement pas une force si le but est d’atteindre l’AGI. Je ne vois donc pas très bien à quoi pourrait servir la proposition d’Anthropic (lobotomiser une IA). Je reste ouvert cependant; toute avancée dans notre compréhension du monde est bonne à prendre.

    • @ThibaultNeveu
      @ThibaultNeveu 25 днів тому

      Comme tu le souligne : " Un neurone pris individuellement contient certainement un “quanta d’information” qui ne peut faire sens que s’il interfère avec un autre “quanta d’information”.", c'est lié à l'hypothèse de superposition. C'est la raison pour la quelle Anthropic suggère de démêler cette superposition, de la surreprésenté afin de pouvoir associer chaque neurone avec un concept un particulier. Ces recherches permettent donc de superviser un modèle dans le champ des concepts connu pour savoir si le modèle utilise ou non un concept donné dans son raisonnement. C'est un outil pour l'aide à la décision pour tester / inspecter la réaction d'un modèle dans des situations précises.

  • @user-cw4hf5id3r
    @user-cw4hf5id3r 28 днів тому

    Salut, Ben dans ta vidéo tu ne vas pas jusqu'au bout, elle est coupée ?

    • @ThibaultNeveu
      @ThibaultNeveu 28 днів тому

      C'est une preview de la vidéo complète dispo sur la chaine