본문 바로가기

松泉, 인생글, 바라보기

바라보기, 회사, Hugging face

728x90
반응형

 

 


Hugging Face, Inc. is a French-American company that develops tools for building applications using machine learning, based in New York City. It is most notable for its transformers library built for natural language processing applications and its platform that allows users to share machine learning models and datasets and showcase their work in a space.

History[edit]

The company was founded in 2016 by French entrepreneurs Clément Delangue, Julien Chaumond, and Thomas Wolf in New York City, originally as a company that developed a chatbot app targeted at teenagers.[1] After open-sourcing the model behind the chatbot, the company pivoted to focus on being a platform for machine learning.

In March 2021, Hugging Face raised US$40 million in a Series B funding round.[2]

On April 28, 2021, the company launched the BigScience Research Workshop in collaboration with several other research groups to release an open large language model.[3] In 2022, the workshop concluded with the announcement of BLOOM, a multilingual large language model with 176 billion parameters.[4][5]

On December 21, 2021, the company announced its acquisition of Gradio, a software library used to make interactive browser demos of machine learning models.[6]

On May 5, 2022, the company announced its Series C funding round led by Coatue and Sequoia.[7] The company received a $2 billion valuation.

On May 13, 2022, the company introduced its Student Ambassador Program to help fulfill its mission to teach machine learning to 5 million people by 2023.[8]

On May 26, 2022, the company announced a partnership with Graphcore to optimize its Transformers library for the Graphcore IPU.[9][10]

On August 3, 2022, the company announced the Private Hub, an enterprise version of its public Hugging Face Hub that supports SaaS or on-premises deployment.[11]

In February 2023, the company announced partnership with Amazon Web Services (AWS) which would allow Hugging Face's products available to AWS customers to use them as the building blocks for their custom applications. The company also said the next generation of BLOOM will be run on Trainium, a proprietary machine learning chip created by AWS.[12][13][14]

In August 2023, the company announced that it raised $235 million in a Series D funding, at a $4.5 billion valuation. The funding was led by Salesforce, and notable participation came from GoogleAmazonNvidiaAMDIntelIBM, and Qualcomm.[15]

Services and technologies[edit]

Transformers Library[edit]

The Transformers library is a Python package that contains open-source implementations of transformer models for text, image, and audio tasks. It is compatible with the PyTorchTensorFlow and JAX deep learning libraries and includes implementations of notable models like BERT and GPT-2.[16] The library was originally called "pytorch-pretrained-bert"[17] which was then renamed to "pytorch-transformers" and finally "transformers."

Hugging Face Hub[edit]

The Hugging Face Hub is a platform (centralized web service) for hosting:[18]

  • Git-based code repositories, with features similar to GitHub, including discussions and pull requests for projects.
  • models, also with Git-based version control;
  • datasets, mainly in text, images, and audio;
  • web applications ("spaces" and "widgets"), intended for small-scale demos of machine learning applications.

Other libraries[edit]

In addition to Transformers and the Hugging Face Hub, the Hugging Face ecosystem contains libraries for other tasks, such as dataset processing ("Datasets"), model evaluation ("Evaluate"), simulation ("Simulate"), machine learning demos ("Gradio").[19]

 


 

Hugging Face, Inc.는 뉴욕시 에 본사를 두고 기계 학습을 사용하여 애플리케이션을 구축하기 위한 도구를 개발하는 프랑스계 미국 회사입니다 . 자연어 처리 애플리케이션 용으로 구축된 변환기 라이브러리 와 사용자가 기계 학습 모델 및 데이터 세트를 공유 하고 자신의 작업을 공간에 선보일 수 있는 플랫폼이 가장 주목할 만합니다 .

연혁 편집 ]

이 회사는 2016년 프랑스 기업가인 Clément Delangue, Julien Chaumond, Thomas Wolf가 뉴욕에서 설립했으며, 원래는 10대를 대상으로 한 챗봇 앱을 개발하는 회사였습니다. [1] 챗봇 뒤에 있는 모델을 오픈 소스화 한 후 회사는 기계 학습을 위한 플랫폼에 초점을 맞추는 방향으로 전환했습니다 .

2021년 3월 Hugging Face는 시리즈 B 자금 조달 라운드 에서 4천만 달러를 모금했습니다 . [2]

2021년 4월 28일, 회사는 개방형 대형 언어 모델을 출시하기 위해 다른 여러 연구 그룹과 협력하여 BigScience Research Workshop을 시작했습니다 . [3] 2022년 워크숍은 1,760억 개의 매개변수를 갖춘 다국어 대형 언어 모델인 BLOOM 을 발표하면서 마무리되었습니다 . [4] [5]

2021년 12월 21일, 회사는 기계 학습 모델의 대화형 브라우저 데모를 만드는 데 사용되는 소프트웨어 라이브러리 인 Gradio를 인수했다고 발표했습니다. [6]

2022년 5월 5일, 회사는 Coatue 와 Sequoia 가 이끄는 시리즈 C 자금 조달 라운드를 발표했습니다 . [7] 이 회사는 20억 달러의 가치 평가를 받았습니다.

2022년 5월 13일, 회사는 2023년까지 500만 명에게 기계 학습을 가르치겠다는 사명을 완수하기 위해 학생 대사 프로그램을 도입했습니다. [8]

2022년 5월 26일, 회사는 Graphcore IPU용 Transformers 라이브러리를 최적화하기 위해 Graphcore 와의 파트너십을 발표했습니다 . [9] [10]

2022년 8월 3일, 회사는 SaaS 또는 온프레미스 배포 를 지원하는 공개 Hugging Face Hub의 엔터프라이즈 버전인 Private Hub를 발표했습니다 . [11]

2023년 2월, 회사는 AWS 고객이 Hugging Face의 제품을 사용자 지정 애플리케이션의 구성 요소로 사용할 수 있도록 허용하는 Amazon Web Services (AWS)와의 파트너십을 발표했습니다. 또한 이 회사는 차세대 BLOOM이 AWS가 개발한 독점 기계 학습 칩인 Trainium에서 실행될 것이라고 밝혔습니다 . [12] [13] [14]

2023년 8월, 회사는 시리즈 D 자금 조달에서 45억 달러 가치로 2억 3,500만 달러를 조달했다고 발표했습니다. 자금 조달은 Salesforce가 주도했으며 Google , Amazon , Nvidia , AMD , Intel , IBM 및 Qualcomm 이 눈에 띄게 참여했습니다 . [15]

서비스 및 기술 편집 ]

트랜스포머 라이브러리 편집 ]

Transformers 라이브러리는 텍스트, 이미지 및 오디오 작업을 위한 변환기 모델 의 오픈 소스 구현을 포함하는 Python 패키지입니다. PyTorch , TensorFlow 및 JAX 딥 러닝 라이브러리 와 호환되며 BERT 및 GPT-2 와 같은 주목할만한 모델의 구현을 포함합니다 . [16] 이 라이브러리는 원래 "pytorch-pretrained-bert"라고 불렸으며 [17] 이후 "pytorch-transformers"로 이름이 바뀌었고 최종적으로는 "transformers"로 바뀌었습니다.

허깅 페이스 허브 편집 ]

Hugging Face Hub는 다음을 호스팅하기 위한 플랫폼(중앙 집중식 웹 서비스 )입니다. [18]

다른 라이브러리 편집 ]

Transformers 및 Hugging Face Hub 외에도 Hugging Face 생태계에는 데이터 세트 처리 ("데이터 세트"), 모델 평가("평가"), 시뮬레이션("시뮬레이트"), 기계 학습 데모(" 그라디오'). [19]


 

https://huggingface.co/

 

Hugging Face – The AI community building the future.

 

huggingface.co

 

https://github.com/huggingface

 

Hugging Face

The AI community building the future. Hugging Face has 169 repositories available. Follow their code on GitHub.

github.com

 

https://www.youtube.com/@HuggingFace

 

HuggingFace

HuggingFace is on a mission to solve Natural Language Processing (NLP) one commit at a time by open-source and open-science. Our youtube channel features tutorials and videos about Machine Learning, Natural Language Processing, Deep Learning and all the to

www.youtube.com

 

https://twitter.com/huggingface

 

반응형