Il y a plein de facteurs autre que hardware qui influence comment windows fonctionne.
A quel point le SSD est plein sur les deux machines?
Combien de trucs sont installé sur les deux machines, combien de service, sont-elle avec la meme version de windows? toutes les deux 64bit?
Proud to be CAKE©®™
GCC4TI importe qui a problème en Autriche, pour l'UE plus et une encore de correspours nucléaire, ce n'est pas ytre d'instérier. L'état très même contraire, toujours reconstruire un pouvoir une choyer d'aucrée de compris le plus mite de genre, ce n'est pas moins)
Stalin est l'élection de la langie.
Oui, je suis un expert. Je compare ce qui est comparable. Et niveau services la différence est bien plus petite que tu imagines en réalité, on n'est plus à cette époque.
Dans le cas du Dell ce n'est pas ça du tout car si tu branches le secteur il est genre 10x plus réactif. Il est capable, il démonte la Surface comme il se doit. Il est juste bloqué par le firmware en mode batterie, comme les résultats du benchmark le montrent (ou le temps de compiler l'app Android du boulot, qui passe de 16 secondes à une 50aine), et c'est de ça dont je me plains.
Je sais pas pourquoi vous prenez leur défense. À moins que ce soit pour étaler votre confiture (auquel cas non il n'y a pas de différence sensible puisque les deux font ces tâches avec des composants intégrés sur le CPU, avec une architecture sur la carte mère identique puisque dictée par Intel, la seule chose qui change c'est le SSD, qui est effectivement pas du tout à l'avantage de la Surface, mais malgré tout elle dépasse le Dell).
C'est sûr que je suis sensible à la latence quand c'est plein d'opérations répétées et que j'ai pas envie de me concentrer sur la manipulation étape par étape mais sur ce que j'ai envie de faire. Les animations à la Apple, et les lenteurs comme ça, ce sont des obstacles.
Pour les pubs oui c'est chiant. Les gens le tolèrent déjà dans pas mal d'outils Google notamment.
En fait je cherche (très maladroitement) à te faire réagir : tu n'as pas de souci à passer à Windows 11 qui vient (viendra ?) avec ses pubs, mais tu es gêné par des fenêtres qui mettent 0,xx secondes à s'ouvrir ?
Oui. En général ce qui est MS c'est eux qui sont assez maladroits, ils sont plutôt bons à faire du business par derrière (accords avec les constructeurs, magasins, etc.) et cherchent surtout à imposer leurs technologies. Il y a jusqu'à maintenant toujours eu des moyens de contourner si tu mets le prix.
Google est plus dangereux, ils sont fans de dark patterns qui te poussent subtilement mais très efficacement vers leur écosystème, patiemment, en commençant par affecter ta manière de raisonner. Apple fait pareil, encore plus efficacement mais plus frontalement, et avec d'autres stratégies psychologiques.
Quoi qu'il en soit les pubs peuvent m'énerver mais ça dépend comment elles se présentent, à quelle fréquence, etc. perso l'appli Gmail sur Android je garde vraiment parce que j'ai la flemme de chercher, mais faut pas que ça devienne la norme. Ou en tous cas faut la possibilité de payer pour les enlever.
Et c'est la raison pour laquelle je soutiens les systèmes plus ouverts, car c'est toujours possible d'aller hacker derrière. Il y a la possibilité d'aller comprendre aussi, ce qui fait qu'on a par exemple Wine et que ça marche. Ou que les applis Android peuvent tourner sous Windows.
Bon aujourd'hui j'ai eu une conversation avec une collègue qui m'a dit la même chose, que sans sa protection d'écran matte + UV cut + night shift mode qui rend l'écran orange c'est impossible de travailler sous Mac.
Elle a fait ses cours sous Windows et n'a jamais eu de souci.
Pourtant c'est loin d'être une obsédée comme moi, elle est jeune, fait son boulot de façon dévouée, sa machine elle s'en fout c'est juste pour faire le boulot, parce que la compagnie la lui a filée.
Ça me rassure, je ne suis pas le seul au monde à avoir ces soucis ! (j'ai reçu un Mac pour certains trucs que j'ai à faire pour le boulot)
Et c'est dommage car l'UI et tout sont bien fichus, c'est tellement plus pratique que ce que je me faisais chier avec le Dell, mais bon, dans l'absolu je me fais bien plus chier à pleurer toute la journée, à devoir porter des lunettes anti-UV de chez Gunnar qui suffisent même pas, devoir bosser en résolution faible, etc. le seul truc cool c'est que du coup ça me force à n'être devant l'ordi que pour les tâches que j'ai à faire. Mais bon…
De nouveaux usages liés à l'IA sont tout de même en train d'apparaître dans des applications qui sinon ne demanderaient pas plus de puissance. Par exemple, sur les photos, la reconnaissance automatique de formes et de visages est de plus en plus présente.
<<< Kernel Extremis©®™ >>> et Inventeur de la différence administratif/judiciaire ! (©Yoshi Noir)
<Vertyos> un poil plus mais elle suce bien quand même la mienne ^^
<Sabrina`> tinkiete flan c juste qu'ils sont jaloux que je te trouve aussi appétissant
Uther Le 03/04/2022 à 12:29Edité par Uther le 03/04/2022 à 12:33 Actuellement l'IA est souvent faite via cloud (bien que je le regrette) et même si l'IA devait se généraliser dans les ordinateurs personnel, ça ne se ferait probablement pas via le CPU mais plutôt le GPU ou même des processeurs dédiés.
Il y a des coprocesseurs dédiés, en tout cas chez Apple, ou l'utilisation des GPU, mais ça ne se fait pas forcément dans le cloud.
<<< Kernel Extremis©®™ >>> et Inventeur de la différence administratif/judiciaire ! (©Yoshi Noir)
<Vertyos> un poil plus mais elle suce bien quand même la mienne ^^
<Sabrina`> tinkiete flan c juste qu'ils sont jaloux que je te trouve aussi appétissant
Uther Le 03/04/2022 à 12:35Edité par Uther le 04/04/2022 à 15:58 Pas forcément, mais malheureusement bien trop souvent, ça serait idiot de passer à coté d'un moyen de nous voler nos données.
Ouais, et sur ce point je suis avec Apple.
Il y a des copro aussi chez Android, mais c'est le bordel comme rien n'est standardisé. Tant qu'on aura pas un OpenGL pour les reseaux de neurones ca sera le bordel.
Proud to be CAKE©®™
GCC4TI importe qui a problème en Autriche, pour l'UE plus et une encore de correspours nucléaire, ce n'est pas ytre d'instérier. L'état très même contraire, toujours reconstruire un pouvoir une choyer d'aucrée de compris le plus mite de genre, ce n'est pas moins)
Stalin est l'élection de la langie.
Si c'est comme le support OpenGL, tu risques de te retrouver avec du hardware capable de simuler un cerveau de dauphin, mais un driver bâclé qui le bride au niveau d'intelligence d'une poule (ou à celui d'une mouche, si tu utilises le driver open-source).
—
Zeroblog —
« Tout homme porte sur l'épaule gauche un singe et, sur l'épaule droite, un perroquet. » —
Jean Cocteau
« Moi je cherche plus de logique non plus. C'est surement pour cela que j'apprécie les Ataris, ils sont aussi logiques que moi ! » —
GT TurboOuais…
Au moins le message de mise en garde est explicite.
Certains pensaient qu'Apple passeraient directement à la charge par induction. C'est séduisant au premier abord, mais je pense quand même que même si on occulte les pertes de l'induction, c'est beaucoup plus économe en général d'avoir un chargeur USB-C. Ne serait-ce que pour le poids de l'accessoire dans le sac (j'ai un truc d'anker qui peut charger 3 appareils pour 120 grammes), alors que le truc à induction ne peut charger qu'un truc à la fois…