android webrtc 예제

QBRTCSurfaceView 인터페이스의 https://quickblox.com/developers/Sample-webrtc-android#QBRTCSurfaceView 참조하십시오. 계측 테스트(예: AppRTCMobileTest 및 libjingle_peerconnection_android_unittest)는 이전 섹션에서 설명한 기본 테스트와 동일한 위치에서 생성된 스크립트를 가져옵니다. 제 3 자 /android_tools에 번들로 제공되는 Android SDK 및 NDK를 사용하려면이 것을 실행하여 PATH에 포함되도록 (src에서 / ) : 참고 : 이것은 순간에 깨진 것으로 알려져 있습니다. 버그 를 참조하십시오 : https://bugs.webrtc.org/9282 구축하고 실행하는 방법에 대한 지침은 예제 / 안드로이드 앱 / README를 참조하십시오. https://webrtc.org/testing Chrome을 사용 하 고 개발 및 테스트에 유용한 명령줄 플래그를 나열 합니다. 예를 들어 audioSendInputLevel 속성은 오디오 트랙이 비활성화된 상태에서도 마이크 입력 레벨을 나타내므로 사용자가 현재 말하기/말하고 있는지 확인할 수 있습니다. 그것을 사용하는 방법에 대한 자세한 예는 SettingsUtil.java 클래스에서 찾을 수 있습니다. 이제 앱이 연결되었으므로 인터넷을 통해 수행될 데이터의 실제 교환을 관리할 수 있도록 NodeJS 서버를 추가해야 합니다. NodeJS 응용 프로그램은 이해하기 위해 매우 똑바로 앞으로입니다. 포트 8080에서 듣는 피어 역할을 합니다.

우리가 서버와 이야기 할 첫 번째 시간은 제안을하는 것입니다. 서버가 오퍼를 받으면 피어가 있는 룸을 만들고 피어가 룸에 합류했다는 메시지를 내보올 것입니다. 이 메시지는 연결의 두 번째 피어로 이동합니다. 두 번째 피어가 오퍼에 대한 답변으로 응답하면 이 메시지가 서버에 표시됩니다. 이 피어를 이전에 만든 방에 연결하고 두 번째 피어가 첫 번째 피어에 대화에 참여했다는 메시지를 보냅니다. 두 동료가 서로 연결하기 위해 정보를 저장하고 iceServers 후보를 받으면 서로 미디어 교환을 시작할 준비가 됩니다. 서버에 연결하려면 소켓을 사용했고, 소켓을 통해 서버로 정보를 보낼 프로그램과 서버에서 정보를 받을 때 수행할 작업을 구현해야 합니다. GitHub에 업로드한 전체 예제를 여기 남겨 두면 무대 뒤에서 무슨 일이 일어나고 있는지 이해하려는 만큼 깊게 갈 수 있습니다. 다음은 링크 SurfaceViewRenderer 로컬 MediaStream 준비, 우리는 사용자에 게 표시 되도록 보기에 렌더링 해야. SurfaceViewRenderer는 우리를 위해 webrtc 프레임의 렌더링을 수행하는 웹트 리브레이의 보기입니다.

우리는 직접 레이아웃 XML에 추가 할 수 있습니다.

android webrtc 예제