有粉絲留言說想利用AI挖掘開源信息,現在你看到的這類文章就是我利用AI抓取開源信息幫助我生成的文章,是的,我壓根看不懂一個代碼~如果你對這類AI自動化程序感興趣,可以看文末加入我的星球有3天試用,我晚點會把資料分享在里面,因為這個和跨境的日常工作不大,我就不錄視頻了,這個純屬我當初無聊學的,今天本來要錄制新視頻的,但是還在參加分享會議中,所以明天吧~周末學習不打烊~


      Hugging Face Transformers Library

      在當今的人工智能領域,各種神經網絡模型已經幫助我們解決了許多復雜的問題。但是,如果你能直接訪問數千種預訓練模型,應用到文本、圖像和音頻等多種領域,將會有多大的便利呢?今天,讓我們一同探索 Hugging Face 提供的開源項目——? Transformers,讓最新、最先進的機器學習技術觸手可及。


      項目簡介

      ? Transformers 提供數千種預訓練模型,這些模型可以應用于不同的模態(如文本、視覺和音頻),執行各種任務:

      在文本任務中的應用

      • 文本分類:這類任務可以識別文本所屬的類別,常見于情感分析等應用。
      • 信息抽取:從非結構化文本中抓取有價值的信息。
      • 問答系統:通過輸入問題找到最合適的答案,適用于智能客服等場景。
      • 文本摘要:將長文壓縮為簡潔的幾句話,幫助快速理解內容。
      • 翻譯:支持超過100種語言之間的互譯。
      • 文本生成:從短語生成長篇文章,已在新聞撰寫等領域有廣泛應用。

      在圖像任務中的應用

      • 圖像分類:識別圖像中主要的內容,例如是否包含某種物體。
      • 目標檢測:在圖像中標出指定的物體并計算其位置。
      • 圖像分割:將圖像劃分為有意義的部分,例如背景和前景的分離。

      在音頻任務中的應用

      • 語音識別:將語音轉換為文本,常見于語音助手。
      • 音頻分類:根據音頻內容進行分類,如音樂類型的識別。

      此外,Transformer 模型還支持 多模態任務,如從掃描文件中提取信息、視頻分類和視覺問答等。

      快速上手

      為了讓用戶能夠最快速地使用這些強大的預訓練模型,? Transformers 提供了便捷的 API。例如,我們可以通過下列代碼快速實現情感分析:

      from?transformers?import?pipeline

      #?為情感分析準備一個流水線
      classifier?=?pipeline('sentiment-analysis')
      #?對輸入文本進行情感分析
      classifier('We?are?very?happy?to?introduce?pipeline?to?the?transformers?repository.')

      該代碼會將預訓練模型下載并緩存,然后對輸入的文本進行評估,返回結果是“積極”的概率。

      應用示例

      在自然語言處理(NLP)領域:

      • BERT 掩碼字完成:示例鏈接
      • Electra 實體識別:示例鏈接
      • Mistral 文本生成:示例鏈接

      在計算機視覺領域:

      • ViT 圖像分類:示例鏈接
      • DETR 目標檢測:示例鏈接
      • SegFormer 語義分割:示例鏈接

      在音頻領域:

      • Whisper 自動語音識別:示例鏈接
      • Wav2Vec2 關鍵詞識別:示例鏈接
      • AST 音頻分類:示例鏈接

      此外,在多模態任務中:

      • TAPAS 表格問答:示例鏈接
      • ViLT 視覺問答:示例鏈接
      • LLaVa 圖像描述:示例鏈接

      Hugging Face 提供的平臺無疑簡化了模型的使用過程,你可以輕松實現從數據預處理、模型訓練到推理等全過程。

      更詳細的示例

      例如,我們可以輕松實現圖像中的目標檢測:

      import?requests
      from?PIL?import?Image
      from?transformers?import?pipeline

      #?下載包含可愛貓咪的圖片
      url?=?"https://huggingface.co/datasets/huggingface/documentation-images/resolve/main/coco_sample.png"
      image_data?=?requests.get(url,?stream=True).raw
      image?=?Image.open(image_data)

      #?為目標檢測準備一個流水線
      object_detector?=?pipeline('object-detection')
      object_detector(image)

      運行上述代碼后,我們將會得到圖片中檢測到的目標以及它們的置信度分數和邊界框。如下圖所示,左邊是原始圖像,右邊是模型的預測結果:

      檢測結果

      項目架構

      在架構設計上,? Transformers 支持通過三大熱門深度學習庫——Jax、PyTorch 和 TensorFlow 無縫切換。不論你使用哪種框架進行模型訓練,都可以用另一種框架進行推理。這無疑極大地增加了靈活性和效率。

      要想快速上手 ? Transformers 提供的預訓練模型,只需要幾行代碼:

      對于 PyTorch:

      from?transformers?import?AutoTokenizer,?AutoModel

      tokenizer?=?AutoTokenizer.from_pretrained("google-bert/bert-base-uncased")
      model?=?AutoModel.from_pretrained("google-bert/bert-base-uncased")

      inputs?=?tokenizer("Hello?world!",?return_tensors="pt")
      outputs?=?model(**inputs)

      對于 TensorFlow:

      from?transformers?import?AutoTokenizer,?TFAutoModel

      tokenizer?=?AutoTokenizer.from_pretrained("google-bert/bert-base-uncased")
      model?=?TFAutoModel.from_pretrained("google-bert/bert-base-uncased")

      inputs?=?tokenizer("Hello?world!",?return_tensors="tf")
      outputs?=?model(**inputs)

      在這段代碼中,tokenizer 負責對輸入文本進行預處理,而 model 則接收處理后的輸入進行推理。

      安裝指南

      使用 pip 安裝

      您可以通過以下命令安裝 Transformers:

      pip?install?transformers

      使用 conda 安裝

      或者選擇使用 conda:

      conda?install?conda-forge::transformers

      環境要求

      ? Transformers 需要 Python 3.8 以上版本,并且需要至少安裝 Flax、PyTorch 或 TensorFlow 其中之一。

      總結

      Hugging Face 開發的 ? Transformers 項目為機器學習和深度學習領域帶來了便捷和高效。無論你是研究人員、開發人員,還是學生,都能夠利用這個工具箱輕松實現各種復雜任務。同時,豐富的預訓練模型庫為不同應用場景提供了強大的支持。

      如果你正尋找一個可靠、易用并且功能強大的工具來加速你的機器學習項目,不妨嘗試一下 ? Transformers,相信你會有驚喜的發現。


      希望這篇介紹能幫助你更好地了解 ? Transformers 的強大功能并開始你的機器學習之旅!



      點贊(0) 打賞

      評論列表 共有 0 條評論

      暫無評論

      服務號

      訂閱號

      備注【拉群】

      商務洽談

      微信聯系站長

      發表
      評論
      立即
      投稿
      返回
      頂部