加入星計劃,您可以享受以下權(quán)益:

  • 創(chuàng)作內(nèi)容快速變現(xiàn)
  • 行業(yè)影響力擴散
  • 作品版權(quán)保護
  • 300W+ 專業(yè)用戶
  • 1.5W+ 優(yōu)質(zhì)創(chuàng)作者
  • 5000+ 長期合作伙伴
立即加入

大型語言模型

加入交流群
掃碼加入
獲取工程師必備禮包
參與熱點資訊討論
  • 研華本地大型語言模型(LLM)邊緣AI服務(wù)器AIR-520 榮獲第33屆“臺灣精品獎”銀獎
    研華本地大型語言模型(LLM)邊緣AI服務(wù)器AIR-520 榮獲第33屆“臺灣精品獎”銀獎
    工業(yè)物聯(lián)網(wǎng)領(lǐng)域的全球供應商研華科技近日公布,其自主研發(fā)的“AIR-520本地大型語言模型(LLM)邊緣AI服務(wù)器”榮獲“第33屆臺灣精品獎”銀獎! 今年,研華有六款產(chǎn)品獲得了中國臺灣精品獎,其中兩款獲得了享有盛譽的銀獎。這一出色的成績凸顯了業(yè)界對研華智能系統(tǒng)和嵌入式平臺在工業(yè)物聯(lián)網(wǎng)領(lǐng)域的認可。研華表示將繼續(xù)整合人工智能驅(qū)動的行業(yè)解決方案和領(lǐng)域?qū)I(yè)知識,加速數(shù)字化轉(zhuǎn)型,為客戶推動工業(yè)智能的發(fā)展。 研
  • 產(chǎn)業(yè)丨LiveBench榜單比拼,階躍星辰成為國內(nèi)大模型第一
    產(chǎn)業(yè)丨LiveBench榜單比拼,階躍星辰成為國內(nèi)大模型第一
    目前生成式AI產(chǎn)業(yè)尚處于發(fā)展的初期階段。中國工程院院士、北京大學博雅講席教授高文指出,如果將人工智能的發(fā)展與人類成長相類比,那么通用人工智能目前可能僅處于蹣跚學步的幼兒階段。但從應用的角度來看,人工智能已經(jīng)能夠解決生產(chǎn)、社會及服務(wù)領(lǐng)域的問題,因此可以先行投入使用,無需等待其達到完美狀態(tài)。
  • 職場人必備丨AI術(shù)語小詞典(7)
    職場人必備丨AI術(shù)語小詞典(7)
    接著上一期的AI術(shù)語小詞典,文檔君又如期而至,來給大家科普啦~推斷是機器學習模型在訓練后對新數(shù)據(jù)進行預測或分類的過程。在推斷階段,模型會使用在訓練階段學習到的參數(shù)和規(guī)則,對輸入數(shù)據(jù)進行計算和分析,然后輸出預測結(jié)果。推斷通常發(fā)生在模型部署后,用于處理實際應用中的數(shù)據(jù)。推斷的性能和準確性是衡量模型好壞的重要指標之一。
  • 大模型已基本解決幻覺問題?
    大模型已基本解決幻覺問題?
    你是否經(jīng)歷過大語言模型一本正經(jīng)“胡說八道”?大模型在發(fā)展初期的幻覺問題尤為嚴重,所回答問題基本屬于“已讀亂回”,至于哪家企業(yè)的大模型不在本文探討之列,大家心知肚明,更重要的是大語言模型的幻覺問題有了最新進展。其實大語言模型發(fā)展到今天,面臨的不止“幻覺”這一個挑戰(zhàn),如未來隨著數(shù)據(jù)量的巨增,必須要進行模型壓縮與優(yōu)化;多模態(tài)模型與大語言模型的結(jié)合,將自然語言處理與計算機視覺、語音處理等多模態(tài)信息相結(jié)合,擴大應用場景。
  • 2024AI+研發(fā)數(shù)字(AiDD)峰會深圳站圓滿收官!
    11月8-9日,為期兩天的AI+研發(fā)數(shù)字(AiDD)峰會在深圳灣萬麗酒店圓滿收官!本屆峰會由AiDD峰會組委會和深圳市軟件行業(yè)協(xié)會聯(lián)合主辦,承辦單位為國內(nèi)領(lǐng)先的專業(yè)數(shù)字人才發(fā)展平臺中智凱靈。 本屆峰會以“AI驅(qū)動研發(fā)變革,助力企業(yè)降本增效”為主題。邀請了來自百度、阿里、騰訊、華為、網(wǎng)易、360、字節(jié)跳動、快手、微軟、去哪兒、中興、等頭部互聯(lián)網(wǎng)企業(yè),以及各大高校的一線從業(yè)者和技術(shù)專家?guī)碜钋把氐闹黝}
  • 曝OpenAI新旗艦模型“難產(chǎn)”,或明年年初發(fā)布
    曝OpenAI新旗艦模型“難產(chǎn)”,或明年年初發(fā)布
    11月11日消息,據(jù)The Information報道,OpenAI的GPT系列模型改進速度放緩,公司正調(diào)整策略以應對這一挑戰(zhàn)。據(jù)OpenAI員工透露,下一代旗艦模型Orion已完成約20%的訓練。Orion在語言任務(wù)上表現(xiàn)出色,但在編碼等方面未超越GPT-4,且運行成本偏高,提升幅度低于預期。此外,Orion在明年年初發(fā)布時,可能不會沿用傳統(tǒng)的“GPT”命名規(guī)則,而是采用新的命名方式。
  • 大語言模型上車后,你的車機真的好用了嗎?
    大語言模型上車后,你的車機真的好用了嗎?
    去年號稱大模型技術(shù)元年,智能座艙的演進進入了新階段:大語言模型上車。智能座艙通過運用大模型,將提供千人千面的語音識別、娛樂信息,以及駕駛輔助的個性化定制服務(wù),讓座艙具有了深度進化的能力。
  • 如果強化學習是問題,大模型是否是「答案」?
    如果強化學習是問題,大模型是否是「答案」?
    “強化學習讓大模型具有了思考能力,大模型為強化學習提供了更開闊的思路?!? 在當今大模型推動的新一波人工智能的快速發(fā)展浪潮中,大模型和強化學習技術(shù)的結(jié)合成為研究和產(chǎn)業(yè)界的焦點。尤其最近OpenAI最新模型o1的發(fā)布,強化學習成為o1的靈魂,更是印證了強化學習的潛力。大模型憑借其強大的數(shù)據(jù)處理能力,為強化學習提供了豐富的知識。這種結(jié)合不僅極大地擴展了人工智能在處理復雜問題上的能力,也為強化學習帶來了更深層次的洞察力和更高效的決策過程。
  • 大模型應用開發(fā)-走進大模型應用
    大模型應用開發(fā)-走進大模型應用
    在人工智能的浩瀚星空中,大模型就像是那顆閃耀的北極星,不僅指引著科技的發(fā)展方向,也照亮了我們對未來的無限暢想。
  • 小模型“反卷”大模型?適用才是真王道!
    小模型“反卷”大模型?適用才是真王道!
    隨著“千模大戰(zhàn)”接近尾聲,由大模型掀起的算力競賽也逐漸進入“下半場”,由“建算力”過渡到“用算力”上。不同于大模型的參數(shù)量大、成本高、部署復雜,以“小而美”著稱的小模型為行業(yè)提供了新選擇。
  • 一文搞懂大語言模型的發(fā)展歷程和未來應用場景!
    一文搞懂大語言模型的發(fā)展歷程和未來應用場景!
    “IT有得聊”是機械工業(yè)出版社旗下IT專業(yè)資訊和服務(wù)平臺,致力于幫助讀者在廣義的IT領(lǐng)域里,掌握更專業(yè)、更實用的知識與技能,快速提升職場競爭力。點擊藍色微信名可快速關(guān)注我們!
  • 艾體寶洞察丨透過語義緩存,實現(xiàn)更快、更智能的LLM應用程序
    本文探討了語義緩存在提升大型語言模型(LLM)應用程序性能中的關(guān)鍵作用。與傳統(tǒng)緩存不同,語義緩存理解用戶查詢背后的語義,提供更快、更相關(guān)的響應。這種技術(shù)通過嵌入模型、矢量搜索等組件,顯著提高了自動化客戶支持、實時翻譯等應用的效率,為企業(yè)優(yōu)化操作和提升用戶體驗提供了新路徑。
  • 大語言模型有什么用途?
    大語言模型有什么用途?
    大語言模型能夠識別、總結(jié)、翻譯、預測和生成文本及其它形式的內(nèi)容。AI 應用正在被應用于總結(jié)文章、撰寫故事和進行長對話,而大語言模型在其中發(fā)揮了重要作用。大語言模型(LLM)是一種深度學習算法,能夠基于從海量數(shù)據(jù)集中獲得的知識,識別、總結(jié)、翻譯、預測和生成文本以及其它形式的內(nèi)容。
  • rLLM:使用大型語言模型進行關(guān)系表學習
    本文 rLLM: Relational Table Learning with LLMs 介紹了rLLM(relationLLM)項目,該項目旨在提供一個平臺,用于快速開發(fā)基于大型語言模型(LLMs)的關(guān)系表學習(RTL)方法。
  • 中國AI長卷(三):算法生根
    中國AI長卷(三):算法生根
    “中美AI差距究竟有幾年?”這個問題困擾了不少人,也有很多聲音嘗試將中美AI實力進行比較。其中,算法,一定是評判的首要標準。中美AI算法究竟是什么水平?我們可以用“第七個燒餅”來理解。ChatGPT就是AI的“第七個燒餅”。深度學習算法的熱潮持續(xù)了十多年,終于在LLM(大語言模型)能涌現(xiàn)之后,看到了實現(xiàn)通用人工智能的曙光。就像一個饑餓的人,連續(xù)吃了六個燒餅都沒吃飽,直到吃完了第七個燒餅,終于覺得飽了。
    1203
    08/06 11:30
  • 大型語言模型的10大現(xiàn)實應用
    大型語言模型的10大現(xiàn)實應用
    人類還是人工智能?將越來越難以分辨!?大型語言模型可以寫故事、回答問題,甚至還能講笑話,幾乎就像一個真實的人。正是它們的創(chuàng)造力和數(shù)據(jù)的結(jié)合,讓我們正在進入一個新時代。
  • 比H100快20倍還更便宜!英偉達的“掘墓人”出現(xiàn)了?
    比H100快20倍還更便宜!英偉達的“掘墓人”出現(xiàn)了?
    6月27日消息,芯片初創(chuàng)公司Etched近日宣布推出了一款針對 Transformer架構(gòu)專用的ASIC芯片 “Sohu”,并聲稱其在AI大語言模型(LLM)推理性能方面擊敗了英偉達(NVIDIA)最新的B200 GPU,AI性能達到了H100的20倍。這也意味著Sohu芯片將可以大幅降低現(xiàn)有AI數(shù)據(jù)中心的采購成本和安裝成本。
  • 你知道開發(fā)一個大型語言模型需要涉及哪些知識嗎?
    你知道開發(fā)一個大型語言模型需要涉及什么嗎?大型語言模型是生成式人工智能應用的支柱,理解創(chuàng)建這些大型語言模型需要什么是非常重要的。
  • 生成式 AI 醫(yī)療加速發(fā)展:數(shù)十家公司采用 Meta Llama 3 NIM
    生成式 AI 醫(yī)療加速發(fā)展:數(shù)十家公司采用 Meta Llama 3 NIM
    Meta 的開放大語言模型(已優(yōu)化并可作為 NVIDIA NIM 下載)為數(shù)字健康和生命科學工作流提供動力支持。
  • 畢昇大模型應用開發(fā)平臺+浪潮信息AIStation,讓大模型定制更簡單
    北京2024年6月5日?/美通社/ -- 近日,畢昇大模型應用開發(fā)平臺與浪潮信息AIStation智能業(yè)務(wù)生產(chǎn)創(chuàng)新平臺完成兼容性互認證?;诋厱N和浪潮信息AIStation,用戶通過預置的畢昇助手與技能模板,使用簡單直觀的表單填寫方式,即可高效利用企業(yè)自有數(shù)據(jù),快速開發(fā)貼合真實業(yè)務(wù)場景的大模型應用,加速大模型在智能問答、報告生成、自動化、數(shù)據(jù)分析等典型行業(yè)場景的落地。 畢昇大模型應用開發(fā)平臺由元腦

正在努力加載...