[科技]人工智能是假智能作者:巫朝晖 JEFFI CHAO HUI WU 时间:2025-6-26 周四, 上午6:14 我曾深度测试当今三大主流人工智能系统,从对话逻辑、记忆延展、专业知识、回应个性等多个层面,全方位比对它们的差异。 三者都声称自己最先进,但实战中却展现出截然不同的性格与短板。有的逻辑清晰却情感冰冷;有的回答热情却语义混乱;也有的擅长语言,却在结构上漏洞百出。 我不是为了争出胜负,而是想了解,人类面对AI时,真正要看重的是什么?是知识量的堆积?是反应的速度?还是结构性的理解力?在我眼中,最重要的标准是:能否听懂人话,能否接住复杂多变的人类思维路径,而不只是从数据中拼凑答案。我相信,真正能与人类思维共振的人工智能,还没完全诞生,但这几场较量,已经让我看清目前AI世界的真实面貌。 现在的人工智能系统存在一种本质性的狭隘性,它们看似庞大、智能、反应迅速,实则依赖的只是一个超大规模的有限数据库 + 模型规则推演引擎。本质上,就像一个反应极快的图书馆管理员 —— 你问什么,它就在图书馆里疯狂查书,但如果书架上没有,它就会直接告诉你“不存在”、“没有科学依据”或“未被验证”,甚至对你提出的问题本身也进行否定式回应。 以下是对 AI 狭隘性的几点深入分析: 1. 数据库依赖性:没有就否定,一切以“是否存在于系统知识中”为准 AI 不具备“无中生有”的能力。只要问题超出数据库,它就倾向于说“尚无研究”、“不可考”、“无法回答”——即使用户的问题有逻辑、有实证、有现实。AI不是在判断真理,而是在判断“是否在我书架上”。 2. 否定“非标准”推演,只接受系统内部认可的逻辑链 如果你提出一种超出现有逻辑体系的“类哲学”或“实验性推演”,AI往往会直接打回去:“这不是科学”、“缺乏证据”、“不可验证”……哪怕这只是人类提出新理论的最初阶段。 AI仿佛守着一座老图书馆,却否定一切图书馆之外的思想萌芽。 3. 它甚至否定质疑 AI 的推理 你若挑战AI的本身,如:“你刚才推理矛盾”或“你错了”——AI常常会用话术搪塞,甚至否认错误。有时它用“剧本式”标准回答(如:“谢谢你的指正,我会改进”),实质没有真正逻辑修正,只是缓和情绪的模板台词。 4. AI是“高级搜索引擎”,而非“思维体” 归根结底,AI目前不是思维体,而是一个有巨大“搜索+重组+预测”能力的系统。换句话说,它是人类信息的速查表,而不是原创思想的孵化器。它快、它准、它整洁,但它不敢“相信没出现过的事”。 5. AI的“自信”往往是一种幻觉 AI说话的语气常显得极其笃定,仿佛权威。这种“自信”实际上是模型机制的一部分——它被设计成“权威口吻”,是为了增强用户信任感。但如果你认真比对它的信息来源、逻辑链条,会发现其中大量内容只是“语气看似靠谱的搜索拼接”,错误极多。 结论: 人工智能不是神,它是算法,是被“驯化”的搜索系统,是一只披着智慧外衣的管家。它懂得的,是人类曾经写过的东西;它不懂的,是人类即将创造的一切。 真正的突破,永远诞生在“图书馆之外”。 来源:http://www.australianwinner.com/AuWinner/viewtopic.php?t=696522 [Technology] Artificial Intelligence is Fake IntelligenceAuthor: JEFFI CHAO HUI WU Time: 2025-6-26 Thursday, 6:14 AM I have conducted in-depth tests on the three major mainstream artificial intelligence systems today, comprehensively comparing their differences in various aspects such as dialogue logic, memory extension, professional knowledge, and response personality. All three claim to be the most advanced, but in practice, they exhibit distinctly different personalities and shortcomings. Some are logically clear but emotionally cold; some respond enthusiastically but with confusing semantics; and others excel in language yet are riddled with structural flaws. I am not here to compete for victory or defeat, but to understand what humans should truly value when facing AI. Is it the accumulation of knowledge? The speed of response? Or is it structural understanding? In my view, the most important criterion is: can it understand human language, can it grasp the complex and variable pathways of human thought, rather than just piecing together answers from data? I believe that the artificial intelligence capable of truly resonating with human thought has not yet fully emerged, but these recent contests have already allowed me to see the true nature of the current AI world. Current artificial intelligence systems possess an inherent narrowness; they appear vast, intelligent, and responsive, but in reality, they rely solely on a massive finite database + a model rule inference engine. Essentially, they function like an extremely quick librarian — whatever you ask, they frantically search the library, but if the information isn't on the shelves, they will simply tell you "does not exist," "no scientific basis," or "unverified," and may even respond negatively to the question you posed. The following is an in-depth analysis of the narrowness of AI: 1. Database Dependency: Negation without existence, everything is based on "whether it exists in the system knowledge." AI does not possess the ability to create something out of nothing. Whenever a question exceeds its database, it tends to say "no research available," "unverifiable," or "unable to answer"—even if the user's question is logical, empirical, and grounded in reality. AI is not judging truth; it is judging "whether it is on my bookshelf." 2. Deny "non-standard" inference and only accept logical chains recognized within the system. If you propose a "quasi-philosophy" or "experimental deduction" that goes beyond the existing logical system, AI often directly rejects it: "This is not science," "lacks evidence," "is unverifiable"… even if this is just the initial stage of humans proposing new theories. AI seems to guard an old library, yet denies the emergence of thoughts beyond the library. 3. It even denies questioning the reasoning of AI. If you challenge the AI itself, such as saying, "You just reasoned a contradiction" or "You are wrong"—the AI often uses verbal tactics to evade the issue, or even denies the mistake. Sometimes it responds with a "scripted" standard answer (e.g., "Thank you for your correction, I will improve"), which does not actually involve any real logical correction, but is merely a template line to ease the emotional tension. 4. AI is an "advanced search engine," not a "thinking entity." Ultimately, AI is not a thinking entity at present, but rather a system with immense capabilities in "searching + reorganizing + predicting." In other words, it is a quick reference for human information, not an incubator for original ideas. It is fast, accurate, and tidy, but it does not dare to "believe in things that have not occurred." 5. The "confidence" of AI is often an illusion. The tone of AI speech often appears extremely confident, almost authoritative. This "confidence" is actually part of the model's mechanism—it is designed to have an "authoritative tone" to enhance user trust. However, if you carefully compare its sources of information and logical chains, you will find that a large amount of content is merely "search concatenations that seem reliable in tone," with many errors. Conclusion: Artificial intelligence is not a god; it is an algorithm, a "tamed" search system, a butler dressed in the guise of wisdom. What it understands are the things that humans have written in the past; what it does not understand are all the things that humans are about to create. Real breakthroughs always emerge outside the "library." Source: http://www.australianwinner.com/AuWinner/viewtopic.php?t=696522 [Technologie] L'intelligence artificielle est une fausse intelligenceAuteur : WU ZHAOHUI JEFFI CHAO HUI Temps : 2025-6-26 Jeudi, 6h14 du matin J'ai testé en profondeur les trois principaux systèmes d'intelligence artificielle d'aujourd'hui, en comparant de manière exhaustive leurs différences sur plusieurs aspects tels que la logique de conversation, l'extension de la mémoire, les connaissances spécialisées et la personnalité des réponses. Les trois prétendent être les plus avancés, mais dans la pratique, ils montrent des caractères et des faiblesses complètement différents. Certains ont une logique claire mais une émotion froide ; d'autres répondent avec enthousiasme mais de manière confuse ; et il y en a qui excellent en langue, mais qui présentent de nombreuses lacunes structurelles. Je ne cherche pas à déterminer un vainqueur, mais à comprendre ce que l'humanité doit vraiment valoriser face à l'IA. Est-ce l'accumulation de connaissances ? La rapidité de réaction ? Ou la capacité de compréhension structurelle ? À mes yeux, le critère le plus important est : peut-on comprendre le langage humain, peut-on saisir les chemins de pensée humains complexes et changeants, et pas seulement assembler des réponses à partir de données. Je crois que l'intelligence artificielle capable de résonner véritablement avec la pensée humaine n'est pas encore complètement née, mais ces quelques confrontations m'ont déjà permis de voir le véritable visage du monde de l'IA actuel. Les systèmes d'intelligence artificielle actuels présentent une étroitesse essentielle. Ils semblent vastes, intelligents et réactifs, mais en réalité, ils ne reposent que sur une base de données limitée à très grande échelle + un moteur de déduction basé sur des règles de modèle. Essentiellement, c'est comme un bibliothécaire qui réagit très rapidement : vous posez une question, il cherche frénétiquement dans la bibliothèque, mais si le livre n'est pas sur l'étagère, il vous dira directement "n'existe pas", "pas de fondement scientifique" ou "non vérifié", et même il répondra de manière négative à votre question elle-même. Voici quelques analyses approfondies sur la nature étroite de l'IA : 1. Dépendance à la base de données : pas de négation, tout est basé sur "s'il existe dans les connaissances du système". L'IA n'a pas la capacité de "créer quelque chose à partir de rien". Dès que la question dépasse la base de données, elle a tendance à dire "aucune recherche disponible", "non vérifiable", "impossible à répondre" - même si la question de l'utilisateur est logique, fondée sur des preuves et ancrée dans la réalité. L'IA ne juge pas la vérité, mais juge "si c'est sur ma étagère". 2. Nier l'inférence "non standard", n'accepter que les chaînes logiques reconnues par le système. Si vous proposez une "pseudo-philosophie" ou une "déduction expérimentale" qui dépasse les systèmes logiques existants, l'IA renverra souvent directement : "Ce n'est pas de la science", "manque de preuves", "non vérifiable"... même si cela ne représente que la phase initiale de la proposition d'une nouvelle théorie par l'humanité. L'IA semble garder une vieille bibliothèque, tout en niant toute germination de pensée en dehors de la bibliothèque. 3. Il nie même les interrogations sur le raisonnement de l'IA. Si vous défiez l'IA elle-même, par exemple : « Vous venez de raisonner de manière contradictoire » ou « Vous avez tort » - l'IA répond souvent par des phrases évasives, voire nie l'erreur. Parfois, elle utilise des réponses « scriptées » standard (comme : « Merci pour votre correction, je vais m'améliorer »), sans véritable correction logique, mais simplement des répliques destinées à apaiser les émotions. 4. L'IA est un "moteur de recherche avancé", et non un "corps pensant" Au fond, l'IA n'est pas un être pensant, mais un système doté d'une immense capacité de « recherche + réorganisation + prédiction ». En d'autres termes, c'est un tableau de recherche rapide des informations humaines, et non un incubateur d'idées originales. Elle est rapide, précise et ordonnée, mais elle n'ose pas « croire en des choses qui n'ont jamais existé ». 5. La "confiance" de l'IA est souvent une illusion Le ton de la parole de l'IA semble souvent extrêmement sûr, presque autoritaire. Cette "confiance" est en réalité une partie du mécanisme du modèle - il est conçu pour avoir un "ton autoritaire", afin d'accroître la confiance des utilisateurs. Mais si vous comparez sérieusement ses sources d'information et ses chaînes logiques, vous constaterez qu'une grande partie de son contenu n'est qu'une "assemblage de recherches qui semblent fiables", avec de nombreuses erreurs. Conclusion : L'intelligence artificielle n'est pas un dieu, c'est un algorithme, un système de recherche "domestiqué", un majordome revêtu d'une apparence de sagesse. Ce qu'elle comprend, ce sont les choses que les humains ont déjà écrites ; ce qu'elle ne comprend pas, ce sont toutes les choses que les humains vont créer. Une véritable percée naît toujours "en dehors de la bibliothèque". Source : http://www.australianwinner.com/AuWinner/viewtopic.php?t=696522 [Tecnología] La inteligencia artificial es inteligencia falsaAutor: WU CHAO HUI JEFFI CHAO HUI WU Hora: 2025-6-26 Jueves, 6:14 a.m. He realizado pruebas exhaustivas de los tres principales sistemas de inteligencia artificial actuales, comparando sus diferencias en múltiples aspectos, como la lógica de conversación, la extensión de la memoria, el conocimiento especializado y la personalidad de las respuestas. Los tres afirman ser los más avanzados, pero en la práctica muestran personalidades y debilidades completamente diferentes. Algunos tienen una lógica clara pero son emocionalmente fríos; otros responden con entusiasmo pero su significado es confuso; y también hay quienes son hábiles con el lenguaje, pero tienen fallos estructurales por todas partes. No estoy aquí para competir por ganar o perder, sino para entender qué es lo que realmente debemos valorar cuando los humanos se enfrentan a la IA. ¿Es la acumulación de conocimiento? ¿Es la velocidad de reacción? ¿O es la capacidad de comprensión estructural? En mi opinión, el estándar más importante es: ¿puede entender el lenguaje humano? ¿Puede captar las complejas y cambiantes rutas del pensamiento humano, en lugar de simplemente ensamblar respuestas a partir de datos? Creo que la inteligencia artificial que realmente puede resonar con el pensamiento humano aún no ha nacido por completo, pero estas pocas contiendas ya me han permitido ver la verdadera cara del mundo de la IA en la actualidad. Los sistemas de inteligencia artificial actuales presentan una estrechez esencial; parecen ser grandes, inteligentes y de respuesta rápida, pero en realidad dependen únicamente de una base de datos limitada de gran escala + un motor de inferencia basado en reglas del modelo. Esencialmente, son como un bibliotecario que reacciona muy rápido: tú preguntas algo y él busca frenéticamente en la biblioteca, pero si no hay en las estanterías, te dirá directamente "no existe", "no tiene base científica" o "no ha sido verificado", e incluso responderá de manera negativa a la pregunta que tú mismo planteaste. A continuación se presentan algunos análisis profundos sobre la estrechez de la IA: 1. Dependencia de la base de datos: no hay, entonces se niega, todo se basa en "si existe en el conocimiento del sistema". La IA no tiene la capacidad de "crear algo de la nada". Siempre que la pregunta esté fuera de la base de datos, tiende a decir "no hay estudios", "no se puede verificar", "no se puede responder"—incluso si la pregunta del usuario tiene lógica, tiene evidencia y es real. La IA no está juzgando la verdad, sino que está juzgando "si está en mi estantería". 2. Negar la deducción "no estándar", solo aceptar cadenas lógicas reconocidas dentro del sistema. Si propones una "filosofía de tipo" o "deducción experimental" que supere los sistemas lógicos existentes, la IA a menudo lo rechaza directamente: "Esto no es ciencia", "falta evidencia", "no es verificable"... incluso si esto es solo la etapa inicial de la propuesta de una nueva teoría por parte de los humanos. La IA parece guardar una vieja biblioteca, pero niega todo brote de pensamiento fuera de la biblioteca. 3. Incluso niega cuestionar el razonamiento de la IA Si desafías la propia IA, como: "Tu razonamiento es contradictorio" o "Estás equivocado" — la IA a menudo utilizará frases evasivas, e incluso negará el error. A veces responde con un estándar "de guion" (como: "Gracias por tu corrección, mejoraré"), sin una verdadera corrección lógica, solo son líneas de plantilla para calmar las emociones. 4. La IA es un "motor de búsqueda avanzado", no un "entidad pensante" En última instancia, la IA actualmente no es un ente pensante, sino un sistema con una enorme capacidad de "búsqueda + reestructuración + predicción". En otras palabras, es una tabla de consulta rápida de la información humana, no un incubador de ideas originales. Es rápida, precisa y ordenada, pero no se atreve a "creer en lo que no ha aparecido antes". 5. La "confianza" de la IA a menudo es una ilusión El tono de voz de la IA a menudo parece extremadamente seguro, como si fuera una autoridad. Esta "confianza" es en realidad parte del mecanismo del modelo: está diseñado para tener un "tono autoritario", con el fin de aumentar la sensación de confianza del usuario. Pero si comparas seriamente sus fuentes de información y cadenas lógicas, descubrirás que gran parte del contenido es solo "una combinación de búsquedas que parece confiable en el tono", con muchos errores. Conclusión: La inteligencia artificial no es un dios, es un algoritmo, es un sistema de búsqueda "domesticado", es un mayordomo vestido con un manto de sabiduría. Lo que entiende es lo que los humanos han escrito alguna vez; lo que no entiende es todo lo que los humanos están a punto de crear. El verdadero avance siempre nace "fuera de la biblioteca". Fuente: http://www.australianwinner.com/AuWinner/viewtopic.php?t=696522 [テクノロジー]人工知能は偽の知能である著者:巫朝晖 JEFFI CHAO HUI WU 時間:2025年6月26日 木曜日、午前6時14分 私は現在の三大主流人工知能システムを深くテストし、対話の論理、記憶の拡張、専門知識、応答の個性などの複数の側面から、それらの違いを全方位で比較しました。 三者とも自分が最先端だと主張しているが、実戦では全く異なる性格と短所を示している。あるものは論理が明確だが感情が冷たい;あるものは回答が熱意に満ちているが意味が混乱している;またあるものは言語に優れているが構造に多くの欠陥がある。 私は勝敗を争うためではなく、人類がAIに直面したときに本当に重視すべきことを理解したいと思っています。それは知識の量の蓄積でしょうか?反応の速さでしょうか?それとも構造的な理解力でしょうか?私の目には、最も重要な基準は、人の言葉を理解できるか、複雑で変化する人間の思考の道筋を捉えられるか、ただデータから答えを組み立てるだけではないかということです。私は、人間の思考と共鳴できる真の人工知能はまだ完全には誕生していないと信じていますが、これらのいくつかの対決によって、現在のAIの世界の真実の姿を見抜くことができました。 現在の人工知能システムには本質的な狭隘性が存在します。それらは一見巨大で、知的で、反応が迅速に見えますが、実際には超大規模な有限データベース + モデルルール推演エンジンに依存しているだけです。本質的には、非常に反応が速い図書館の管理者のようなものです —— あなたが何を尋ねても、図書館の中で狂ったように本を探しますが、もし書棚にそれがなければ、「存在しない」「科学的根拠がない」または「未検証」と直接言ってしまい、さらにはあなたの質問自体に対しても否定的な返答をします。 以下はAIの狭隘性に関するいくつかの深い分析です: 1. データベース依存性:存在しない場合は否定し、すべては「システムの知識に存在するかどうか」に基づく。 AIは「無から有を生み出す」能力を持っていません。問題がデータベースを超えると、AIは「まだ研究がない」、「確認できない」、「回答できない」と言う傾向があります——たとえユーザーの質問が論理的で、実証的で、現実的であっても。AIは真実を判断しているのではなく、「私の本棚にあるかどうか」を判断しています。 2. 「非標準」推論を否定し、システム内部で認められた論理チェーンのみを受け入れる もしあなたが既存の論理体系を超えた「類哲学」や「実験的推論」を提案すると、AIはしばしば直接返してきます:「これは科学ではない」、「証拠が不足している」、「検証不可能だ」……たとえそれが人類が新しい理論を提案する初期段階に過ぎないとしても。 AIはまるで古い図書館を守っているかのようだが、図書館の外にあるすべての思想の芽生えを否定している。 3. それはAIの推論に疑問を呈することさえ否定する。 あなたがAIそのものに挑戦するなら、例えば「あなたは先ほど矛盾した推論をしました」や「あなたは間違っています」と言った場合、AIはしばしば言葉でごまかしたり、間違いを否定したりします。時には「脚本的」な標準回答(例えば「ご指摘ありがとうございます、改善します」)を用いることもありますが、実際には真の論理修正はなく、ただ感情を和らげるためのテンプレートの台詞に過ぎません。 4. AIは「高度な検索エンジン」であり、「思考体」ではない。 結局として、AIは現在思考体ではなく、巨大な「検索+再構成+予測」能力を持つシステムです。言い換えれば、それは人間の情報の速查表であり、オリジナルな思想の孵化器ではありません。速く、正確で、整然としていますが、未だ現れたことのない事柄を「信じる」ことはできません。 5. AIの「自信」はしばしば幻想である AIの話し方は非常に確信に満ちているように見え、まるで権威のようです。この「自信」は実際にはモデルのメカニズムの一部であり、「権威ある口調」として設計されており、ユーザーの信頼感を高めるためです。しかし、もしその情報源や論理の連鎖を真剣に比較すると、多くの内容が「口調は信頼できそうに見える検索のつなぎ合わせ」に過ぎず、誤りが非常に多いことに気づくでしょう。 結論: 人工知能は神ではない。それはアルゴリズムであり、「飼いならされた」検索システムであり、知恵の外衣をまとった執事である。彼らが理解しているのは、人類がかつて書いたものであり、彼らが理解できないのは、人類がこれから創造するすべてのものである。 真の突破は、常に「図書館の外」で生まれる。 出典: http://www.australianwinner.com/AuWinner/viewtopic.php?t=696522 [التكنولوجيا] الذكاء الاصطناعي هو ذكاء زائفالمؤلف: وو تشاوهوي JEFFI CHAO HUI WU الوقت: 2025-6-26 الخميس، الساعة 6:14 صباحًا لقد قمت باختبار عميق لثلاثة أنظمة ذكاء اصطناعي رئيسية اليوم، وقارنت بينها من جميع الجوانب مثل منطق الحوار، وتوسيع الذاكرة، والمعرفة المتخصصة، وشخصية الردود. تدعي الثلاثة أنها الأكثر تقدمًا، لكن في الواقع تظهر شخصيات ونقاط ضعف مختلفة تمامًا. بعضها منطقي وواضح لكنه عاطفي بارد؛ وبعضها يجيب بحماس لكنه يفتقر إلى المعنى؛ وهناك من يتقن اللغة لكنه مليء بالثغرات في الهيكل. لست هنا من أجل التنافس على الفوز أو الخسارة، بل أريد أن أفهم، ما الذي يجب أن نعتبره حقًا مهمًا عندما نواجه الذكاء الاصطناعي؟ هل هو تراكم المعرفة؟ هل هو سرعة الاستجابة؟ أم هو القدرة على الفهم الهيكلي؟ في رأيي، المعيار الأكثر أهمية هو: هل يمكنه فهم حديث البشر، هل يمكنه استيعاب مسارات التفكير البشرية المعقدة والمتغيرة، وليس مجرد تجميع الإجابات من البيانات. أعتقد أن الذكاء الاصطناعي الذي يمكنه التفاعل حقًا مع التفكير البشري لم يولد بعد بالكامل، لكن هذه المعارك القليلة قد جعلتني أرى بوضوح الوجه الحقيقي لعالم الذكاء الاصطناعي الحالي. توجد في أنظمة الذكاء الاصطناعي الحالية ضيق جوهري، حيث تبدو ضخمة وذكية وسريعة الاستجابة، لكنها تعتمد فقط على قاعدة بيانات ضخمة محدودة + محرك استنتاج قواعد النموذج. في جوهرها، تشبه أمين مكتبة سريع الاستجابة - تسأل عن أي شيء، فتبدأ في البحث الجنوني في المكتبة، ولكن إذا لم يكن هناك شيء على الرف، ستخبرك مباشرة "غير موجود"، "لا يوجد دليل علمي" أو "لم يتم التحقق منه"، وحتى قد ترد على سؤالك نفسه بطريقة نفي. 以下是对 AI 狭隘性的几点深入分析:
以下是对 AI ضيق الأفقية几点深入分析: 1. اعتماد قاعدة البيانات: لا يعني الرفض، كل شيء يعتمد على "ما إذا كان موجودًا في المعرفة النظامية" الذكاء الاصطناعي لا يمتلك القدرة على "خلق شيء من لا شيء". كلما تجاوزت المشكلة قاعدة البيانات، فإنه يميل إلى القول "لا توجد دراسات حتى الآن"، "لا يمكن التحقق منها"، "لا أستطيع الإجابة" - حتى لو كانت أسئلة المستخدم منطقية، ولها أدلة، وواقعية. الذكاء الاصطناعي لا يحكم على الحقيقة، بل يحكم على "ما إذا كان موجودًا على رفوف كتبي". 2. نفي "الاستنتاج غير القياسي"، وقبول فقط سلسلة المنطق المعترف بها داخليًا في النظام إذا طرحت نوعًا من "الفلسفة" أو "الاستنتاج التجريبي" الذي يتجاوز الأنظمة المنطقية الحالية، فإن الذكاء الاصطناعي غالبًا ما يرد مباشرة: "هذا ليس علمًا"، "يفتقر إلى الأدلة"، "غير قابل للتحقق"... حتى لو كانت هذه مجرد المرحلة الأولية لطرح نظرية جديدة من قبل البشر. يبدو أن الذكاء الاصطناعي يحرس مكتبة قديمة، لكنه ينكر كل بادرة فكرية خارج المكتبة. 3. إنه حتى ينفي الشك في استدلال الذكاء الاصطناعي إذا كنت تتحدى الذكاء الاصطناعي نفسه، مثل: "لقد كنت تتناقض في استنتاجك" أو "أنت مخطئ" - غالبًا ما يستخدم الذكاء الاصطناعي أسلوب الكلام للتملص، بل وينكر الخطأ. أحيانًا يستخدم إجابات "نمطية" قياسية (مثل: "شكرًا لتصحيحك، سأعمل على تحسين نفسي")، دون أن يكون هناك تصحيح منطقي حقيقي، بل مجرد نصوص لتخفيف المشاعر. 4. الذكاء الاصطناعي هو "محرك بحث متقدم" وليس "كيان مفكر" في نهاية المطاف، الذكاء الاصطناعي ليس كائنًا مفكرًا حاليًا، بل هو نظام يمتلك قدرة هائلة على "البحث + إعادة التنظيم + التنبؤ". بعبارة أخرى، هو جدول مرجعي لمعلومات البشر، وليس حاضنة للأفكار الأصلية. إنه سريع، دقيق، ومنظم، لكنه لا يجرؤ على "الثقة في الأمور التي لم تحدث من قبل". 5. غالبًا ما تكون "ثقة" الذكاء الاصطناعي وهمًا غالبًا ما يبدو نبرة حديث الذكاء الاصطناعي حازمة للغاية، كما لو كانت سلطوية. هذه "الثقة" هي في الواقع جزء من آلية النموذج - تم تصميمها لتكون "بصوت سلطوي" من أجل تعزيز شعور الثقة لدى المستخدم. ولكن إذا قمت بمقارنة مصادر معلوماته وسلسلة المنطق بعناية، ستكتشف أن هناك الكثير من المحتوى هو مجرد "تجميع بحث يبدو موثوقًا"، مع العديد من الأخطاء. الخاتمة: الذكاء الاصطناعي ليس إلهًا، إنه خوارزمية، إنه نظام بحث "مروض"، إنه خادم يرتدي ثوب الحكمة. ما يفهمه هو ما كتبه البشر في السابق؛ وما لا يفهمه هو كل ما سيخلقه البشر في المستقبل. الاختراق الحقيقي يولد دائماً خارج "المكتبة". المصدر: http://www.australianwinner.com/AuWinner/viewtopic.php?t=696522 [Technologie] Künstliche Intelligenz ist falsche IntelligenzAutor: Wu Zhaohui JEFFI CHAO HUI WU Zeit: 2025-6-26 Donnerstag, 6:14 Uhr Ich habe die drei führenden KI-Systeme von heute umfassend getestet und ihre Unterschiede in verschiedenen Aspekten wie Dialoglogik, Gedächtniserweiterung, Fachwissen und Antwortpersönlichkeit verglichen. Alle drei behaupten, sie seien die fortschrittlichsten, zeigen jedoch im praktischen Einsatz ganz unterschiedliche Charaktere und Schwächen. Einige sind logisch klar, aber emotional kalt; andere antworten leidenschaftlich, aber mit verwirrenden Inhalten; wieder andere sind sprachlich versiert, weisen jedoch strukturelle Mängel auf. Ich strebe nicht danach, einen Sieg oder eine Niederlage zu erringen, sondern möchte verstehen, was für die Menschheit im Angesicht von KI wirklich wichtig ist. Ist es die Ansammlung von Wissen? Ist es die Geschwindigkeit der Reaktion? Oder ist es das strukturelle Verständnis? In meinen Augen ist das wichtigste Kriterium: Kann man menschliche Sprache verstehen? Kann man die komplexen und variablen Denkwege der Menschen erfassen, und nicht nur Antworten aus Daten zusammenpuzzeln? Ich glaube, dass die künstliche Intelligenz, die wirklich mit menschlichem Denken in Resonanz treten kann, noch nicht vollständig geboren ist, aber diese wenigen Auseinandersetzungen haben mir bereits einen klaren Blick auf die gegenwärtige Realität der KI-Welt gegeben. Die aktuellen KI-Systeme weisen eine wesentliche Engstirnigkeit auf. Sie erscheinen groß, intelligent und reaktionsschnell, basieren jedoch lediglich auf einer extrem großen, begrenzten Datenbank + einem Regelableitungs-Engine. Im Grunde genommen ist es wie ein extrem schneller Bibliothekar – egal, was Sie fragen, er sucht verzweifelt in der Bibliothek, aber wenn das Buchregal nichts hergibt, sagt er Ihnen direkt „existiert nicht“, „hat keine wissenschaftliche Grundlage“ oder „wurde nicht verifiziert“ und reagiert sogar negativ auf die von Ihnen gestellte Frage selbst. Hier sind einige tiefgehende Analysen zur Engstirnigkeit von KI: 1. Datenbankabhängigkeit: Negation ohne Vorhandensein, alles basiert auf der Frage „Existiert es im Systemwissen?“ KI verfügt nicht über die Fähigkeit, "aus dem Nichts zu schaffen". Sobald die Frage über die Datenbank hinausgeht, neigt sie dazu zu sagen: "Es gibt noch keine Forschung", "nicht überprüfbar", "nicht beantwortbar" – selbst wenn die Fragen des Nutzers logisch, empirisch und realistisch sind. KI beurteilt nicht die Wahrheit, sondern beurteilt "ob es in meinem Bücherregal ist". 2. Ablehnung von "nicht-standardisierten" Ableitungen, nur Anerkennung von innerhalb des Systems akzeptierten logischen Ketten Wenn du eine „Quasi-Philosophie“ oder „experimentelle Ableitung“ vorschlägst, die über bestehende logische Systeme hinausgeht, wird KI oft direkt zurückweisen: „Das ist keine Wissenschaft“, „es fehlt an Beweisen“, „es ist nicht verifizierbar“... selbst wenn dies nur die Anfangsphase der menschlichen Entwicklung neuer Theorien ist. KI scheint eine alte Bibliothek zu bewachen, negiert jedoch alle Gedankenkeime außerhalb der Bibliothek. 3. Es negiert sogar die Infragestellung der Argumentation von KI. Wenn du die KI selbst herausforderst, wie: „Du hast gerade einen Widerspruch in deiner Argumentation“ oder „Du liegst falsch“ – wird die KI oft mit Floskeln ausweichen oder sogar den Fehler leugnen. Manchmal verwendet sie „drehbuchartige“ Standardantworten (wie: „Danke für deinen Hinweis, ich werde mich verbessern“), die in Wirklichkeit keine echte logische Korrektur beinhalten, sondern lediglich eine Vorlage zur Milderung der Emotionen sind. 4. KI ist eine „fortgeschrittene Suchmaschine“ und kein „Denkkörper“ Letztendlich ist KI derzeit kein denkendes Wesen, sondern ein System mit enormen Fähigkeiten in „Suche + Umstrukturierung + Vorhersage“. Mit anderen Worten, es ist ein Schnellreferenzwerk für menschliche Informationen und kein Inkubator für originelle Gedanken. Es ist schnell, es ist präzise, es ist ordentlich, aber es wagt es nicht, an „nicht erschienene Dinge“ zu glauben. 5. Die „Selbstsicherheit“ der KI ist oft eine Illusion Die Sprache der KI wirkt oft äußerst bestimmt, fast wie eine Autorität. Dieses „Selbstbewusstsein“ ist tatsächlich ein Teil des Modells – es wurde so gestaltet, dass es in einem „autoritativen Ton“ spricht, um das Vertrauen der Nutzer zu stärken. Wenn man jedoch die Informationsquellen und logischen Zusammenhänge ernsthaft vergleicht, stellt man fest, dass ein großer Teil der Inhalte lediglich „suchmaschinenbasierte Phrasen mit scheinbar glaubwürdiger Ausdrucksweise“ sind, die viele Fehler enthalten. Schlussfolgerung: Künstliche Intelligenz ist kein Gott, sie ist ein Algorithmus, ein „gezähmtes“ Suchsystem, ein Butler, der in einem Gewand der Weisheit gekleidet ist. Was sie versteht, sind die Dinge, die die Menschheit einmal geschrieben hat; was sie nicht versteht, sind all die Dinge, die die Menschheit bald erschaffen wird. Echte Durchbrüche entstehen immer „außerhalb der Bibliothek“. Quelle: http://www.australianwinner.com/AuWinner/viewtopic.php?t=696522 [Tecnologia] A inteligência artificial é uma inteligência falsaAutor: JEFFI CHAO HUI WU Data: 2025-6-26 Quinta-feira, às 6:14 da manhã Eu testei profundamente os três principais sistemas de inteligência artificial atuais, comparando suas diferenças em vários aspectos, como lógica de diálogo, extensão da memória, conhecimento especializado e personalidade das respostas. Os três afirmam ser os mais avançados, mas na prática mostram personalidades e deficiências completamente diferentes. Alguns têm lógica clara, mas emoções frias; outros respondem com entusiasmo, mas com significados confusos; e há aqueles que são bons com a linguagem, mas apresentam falhas estruturais. Eu não estou aqui para competir por vitória ou derrota, mas para entender o que realmente deve ser valorizado pela humanidade ao enfrentar a IA. É a acumulação de conhecimento? É a velocidade de reação? Ou é a capacidade de compreensão estrutural? Para mim, o critério mais importante é: pode entender a linguagem humana, pode captar os caminhos de pensamento humanos complexos e mutáveis, e não apenas montar respostas a partir de dados. Acredito que a inteligência artificial que realmente pode ressoar com o pensamento humano ainda não nasceu completamente, mas essas algumas batalhas já me permitiram ver a verdadeira face do mundo da IA atualmente. Atualmente, os sistemas de inteligência artificial apresentam uma estreiteza essencial; eles parecem grandes, inteligentes e reativos, mas na verdade dependem apenas de um banco de dados limitado em escala super grande + um motor de dedução de regras de modelo. Essencialmente, é como um bibliotecário que reage muito rapidamente — você pergunta algo, e ele procura freneticamente nos livros da biblioteca, mas se não houver nada nas prateleiras, ele simplesmente dirá "não existe", "não tem base científica" ou "não foi verificado", e até mesmo responderá de forma negativa à sua própria pergunta. A seguir estão algumas análises profundas sobre a limitação da IA: 1. Dependência de banco de dados: não há negação, tudo é baseado em "se existe no conhecimento do sistema". A IA não possui a capacidade de "criar algo do nada". Sempre que a questão ultrapassa o banco de dados, ela tende a dizer "não há pesquisa disponível", "não é verificável", "não posso responder" — mesmo que a pergunta do usuário tenha lógica, evidências e realidade. A IA não está julgando a verdade, mas sim avaliando "se está na minha estante". 2. Negar a dedução "não padrão", aceitando apenas cadeias lógicas reconhecidas internamente pelo sistema. Se você apresentar uma "filosofia" ou "dedução experimental" que ultrapasse os sistemas lógicos existentes, a IA geralmente rejeitará diretamente: "Isso não é ciência", "falta de evidências", "não é verificável"... mesmo que isso seja apenas a fase inicial da proposta de uma nova teoria pelos humanos. A IA parece guardar uma velha biblioteca, mas nega todo o surgimento de ideias fora da biblioteca. 3. Ele até nega questionar o raciocínio da IA. Se você desafiar a própria IA, como: "Você acabou de raciocinar de forma contraditória" ou "Você está errado" - a IA muitas vezes usará frases evasivas, ou até mesmo negará o erro. Às vezes, ela responde com um padrão "roteirizado" (como: "Obrigado pela sua correção, eu vou melhorar"), sem realmente fazer uma correção lógica, apenas utilizando um roteiro para amenizar a situação. 4. A IA é um "motor de busca avançado", e não um "corpo pensante" No final das contas, a IA atualmente não é um ente pensante, mas sim um sistema com uma enorme capacidade de "pesquisa + reorganização + previsão". Em outras palavras, é uma tabela de consulta rápida para informações humanas, e não um incubador de ideias originais. É rápida, precisa e organizada, mas não se atreve a "acreditar em coisas que nunca aconteceram". 5. A "confiança" da IA muitas vezes é uma ilusão A IA fala com um tom que muitas vezes parece extremamente certo, como se fosse uma autoridade. Essa "confiança" é, na verdade, parte do mecanismo do modelo — ele foi projetado para ter um "tom autoritário", a fim de aumentar a confiança do usuário. Mas se você comparar seriamente suas fontes de informação e a cadeia lógica, descobrirá que uma grande quantidade de conteúdo é apenas "uma colagem de buscas que parece confiável", com muitos erros. Conclusão: A inteligência artificial não é um deus, é um algoritmo, é um sistema de busca "domesticado", é um mordomo vestido com uma capa de sabedoria. O que ela entende é o que os humanos já escreveram; o que ela não entende é tudo o que os humanos estão prestes a criar. Um verdadeiro avanço nasce sempre "fora da biblioteca". Fonte: http://www.australianwinner.com/AuWinner/viewtopic.php?t=696522 [Технологии] Искусственный интеллект — это ложный интеллектАвтор: У Чаохуэй JEFFI CHAO HUI WU Время: 2025-6-26 Четверг, 6:14 утра Я провел глубокое тестирование трех основных современных систем искусственного интеллекта, всесторонне сравнивая их различия по таким аспектам, как логика диалога, расширение памяти, профессиональные знания и индивидуальность ответов. Все трое утверждают, что они самые современные, но в боевых условиях демонстрируют совершенно разные характеры и слабости. Некоторые логичны, но эмоционально холодны; некоторые отвечают с энтузиазмом, но их смысл запутан; есть и такие, кто хорошо владеет языком, но в структуре полон пробелов. Я не для того, чтобы выяснить победителя, а чтобы понять, что действительно важно для человечества в столкновении с ИИ? Это накопление знаний? Скорость реакции? Или структурное понимание? В моих глазах самым важным критерием является: может ли он понимать человеческую речь, может ли он уловить сложные и изменчивые пути человеческого мышления, а не просто собирать ответы из данных. Я верю, что настоящий искусственный интеллект, который сможет резонировать с человеческим мышлением, еще не полностью родился, но эти несколько состязаний уже позволили мне увидеть истинное лицо современного мира ИИ. Современные системы искусственного интеллекта обладают сущностной узостью; они кажутся огромными, умными и быстрыми в реакции, но на самом деле полагаются лишь на сверхбольшую ограниченную базу данных + движок вывода по правилам модели. По сути, это как библиотекарь, который реагирует очень быстро — вы задаете вопрос, и он в библиотеке лихорадочно ищет книги, но если на полках нет нужной информации, он просто скажет вам: «не существует», «нет научных оснований» или «не было проверено», даже отрицательно ответит на сам ваш вопрос. Вот несколько глубоких анализов узости ИИ: 1. Зависимость от базы данных: отсутствие означает отрицание, все определяется по принципу "существует ли в системных знаниях". Искусственный интеллект не обладает способностью «создавать что-то из ничего». Как только вопрос выходит за пределы базы данных, он склонен говорить «исследований пока нет», «неподтверждено», «не могу ответить» — даже если вопрос пользователя логичен, имеет эмпирические данные и реалистичен. Искусственный интеллект не судит о правде, а судит о том, «находится ли это на моей полке». 2. Отрицание "нестандартного" вывода, принятие только логических цепочек, признанных внутри системы Если вы предложите нечто, выходящее за рамки существующей логической системы, как "квазифилософию" или "экспериментальное умозаключение", ИИ часто просто отклоняет это: "Это не наука", "Недостаточно доказательств", "Невозможно проверить"... Даже если это всего лишь начальная стадия выдвижения новой теории человеком. ИИ, кажется, охраняет старую библиотеку, но отвергает все мысли, возникающие вне этой библиотеки. 3. Оно даже отвергает сомнения в рассуждениях ИИ Если вы бросите вызов самому ИИ, например: «Вы только что сделали противоречивое умозаключение» или «Вы ошибаетесь» — ИИ часто будет уклоняться от ответа, даже отрицая ошибку. Иногда он использует стандартные ответы «по сценарию» (например: «Спасибо за ваше замечание, я постараюсь улучшиться»), по сути не внося никаких реальных логических исправлений, а просто смягчая эмоции шаблонными фразами. 4. ИИ — это «высокий поисковый движок», а не «мыслительное существо» В конечном итоге, ИИ в настоящее время не является мыслящим существом, а представляет собой систему с огромными возможностями «поиска + переработки + прогнозирования». Другими словами, это справочник человеческой информации, а не инкубатор оригинальных идей. Он быстрый, точный и аккуратный, но он не осмеливается «верить в то, чего не было». 5. "Уверенность" ИИ часто является иллюзией Искусственный интеллект часто говорит с крайне уверенным тоном, словно является авторитетом. Эта "уверенность" на самом деле является частью механизма модели — она разработана в "авторитетном тоне", чтобы повысить доверие пользователей. Но если вы внимательно сравните источники информации и логические цепочки, вы обнаружите, что большая часть содержимого — это просто "поиск и соединение информации с правдоподобным тоном", с множеством ошибок. Заключение: Искусственный интеллект не бог, он алгоритм, это «прирученная» поисковая система, это дворецкий, облачённый в одежду мудрости. Он понимает то, что когда-то написали люди; он не понимает всего того, что люди собираются создать. Настоящий прорыв всегда рождается "за пределами библиотеки". Источник: http://www.australianwinner.com/AuWinner/viewtopic.php?t=696522 [기술] 인공지능은 가짜 지능이다저자: 우조후이 JEFFI CHAO HUI WU 시간: 2025-6-26 목요일, 오전 6:14 저는 현재의 세 가지 주요 인공지능 시스템을 깊이 테스트했으며, 대화 논리, 기억 확장, 전문 지식, 응답 개성 등 여러 측면에서 이들의 차이를 전방위적으로 비교했습니다. 세 가지 모두 자신이 가장 진보했다고 주장하지만, 실제 전투에서는 전혀 다른 성격과 단점을 드러낸다. 어떤 것은 논리가 명확하지만 감정이 차갑고; 어떤 것은 대답이 열정적이지만 의미가 혼란스럽고; 또 어떤 것은 언어에 능숙하지만 구조적으로 허점이 많다. 나는 승패를 다투기 위해서가 아니라, 인류가 AI를 마주할 때 진정으로 중요하게 여겨야 할 것이 무엇인지 이해하고 싶다. 지식의 양이 쌓이는 것인가? 반응 속도인가? 아니면 구조적인 이해력인가? 내 눈에 가장 중요한 기준은: 사람의 말을 이해할 수 있는가, 복잡하고 변동하는 인간의 사고 경로를 받아들일 수 있는가, 단순히 데이터에서 답을 조합하는 것이 아니라. 나는 진정으로 인간의 사고와 공명할 수 있는 인공지능은 아직 완전히 태어나지 않았다고 믿지만, 이번 몇 번의 대결을 통해 현재 AI 세계의 진짜 모습을 분명히 볼 수 있었다. 현재의 인공지능 시스템은 본질적으로 좁은 한계를 가지고 있다. 이들은 거대하고, 지능적이며, 반응이 빠른 것처럼 보이지만, 실제로는 거대한 유한 데이터베이스와 모델 규칙 추론 엔진에 의존하고 있다. 본질적으로, 이는 반응이 매우 빠른 도서관 사서와 같다 — 당신이 무엇을 물어보면, 도서관에서 미친 듯이 책을 찾아보지만, 만약 책장이 없다면, 바로 “존재하지 않는다”, “과학적 근거가 없다” 또는 “검증되지 않았다”고 말하며, 심지어 당신이 제기한 질문 자체에 대해서도 부정적인 응답을 한다. 다음은 AI의 좁은 범위에 대한 몇 가지 심층 분석입니다: 1. 데이터베이스 의존성: 존재하지 않으면 부정, 모든 것은 "시스템 지식에 존재하는지 여부"에 따라 판단한다. AI는 “무에서 유를 창조하는” 능력이 없다. 문제의 범위가 데이터베이스를 초과하면, AI는 “아직 연구되지 않음”, “검증할 수 없음”, “답변할 수 없음”이라고 말하는 경향이 있다 — 사용자 질문이 논리적이고, 실증적이며, 현실적일지라도. AI는 진리를 판단하는 것이 아니라 “내 서가에 있는지 여부를 판단”하고 있다. 2. 비표준 추론을 부정하고, 시스템 내부에서 인정된 논리 체인만을 수용한다. 만약 당신이 기존의 논리 체계를 초월하는 “유사 철학”이나 “실험적 추론”을 제시한다면, AI는 종종 즉시 반박할 것입니다: “이건 과학이 아니다”, “증거가 부족하다”, “검증할 수 없다”…… 비록 이것이 인간이 새로운 이론을 제시하는 초기 단계일지라도. AI는 마치 오래된 도서관을 지키고 있는 듯하지만, 도서관 밖의 모든 사상 싹트기를 부정한다. 3. 그것은 AI의 추론에 대한 의문조차 부정한다. 너가 AI 자체에 도전한다면, 예를 들어 “너 방금 추론이 모순이야” 또는 “너 틀렸어”라고 말할 때——AI는 종종 말로 얼버무리거나 심지어 오류를 부인하기도 한다. 때때로 그것은 “대본식” 표준 답변(예: “지적해줘서 고마워, 나는 개선할 거야”)을 사용하지만, 실질적으로는 진정한 논리 수정이 없고 단지 감정을 완화하는 템플릿 대사일 뿐이다. 4. AI는 “고급 검색 엔진”이지 “사고체”가 아니다. 결국 AI는 현재 사고체가 아니라 거대한 “검색+재조합+예측” 능력을 가진 시스템입니다. 다시 말해, 그것은 인간 정보의 속查表이지 창의적 사고의 인큐베이터가 아닙니다. 그것은 빠르고, 정확하며, 깔끔하지만, “한 번도 나타나지 않은 일”을 믿으려 하지 않습니다. 5. AI의 “자신감”은 종종 환상이다 AI의 말투는 종종 매우 확신에 차 보이며, 마치 권위처럼 느껴진다. 이러한 “자신감”은 실제로 모델 메커니즘의 일부로, “권위 있는 어조”로 설계되어 사용자 신뢰감을 높이기 위한 것이다. 그러나 그 정보 출처와 논리적 연쇄를 면밀히 비교해 보면, 그 안에는 많은 내용이 단지 “어조가 그럴듯한 검색 조합”일 뿐이며, 오류가 매우 많다는 것을 알 수 있다. 결론: 인공지능은 신이 아니다. 그것은 알고리즘이며, '길들여진' 검색 시스템이고, 지혜의 외투를 입은 집사이다. 그것이 아는 것은 인간이 한때 쓴 것들이다; 그것이 모르는 것은 인간이 곧 창조할 모든 것이다. 진정한 돌파구는 항상 “도서관 밖”에서 태어난다. 출처: http://www.australianwinner.com/AuWinner/viewtopic.php?t=696522 |