Compare commits
	
		
			2 Commits
		
	
	
		
			v4.1.23
			...
			6c9dbc77dd
		
	
	| Author | SHA1 | Date | |
|---|---|---|---|
| 6c9dbc77dd | |||
| 70f0ace92e | 
| @@ -8,11 +8,12 @@ on: | |||||||
|       - '.gitea/**' |       - '.gitea/**' | ||||||
|   pull_request: |   pull_request: | ||||||
|     branches: [ main, v3, v4 ] |     branches: [ main, v3, v4 ] | ||||||
|  |   # Allows you to run this workflow manually from the Actions tab | ||||||
|  |   workflow_dispatch: | ||||||
| 
 | 
 | ||||||
| jobs: | jobs: | ||||||
| 
 | 
 | ||||||
|   build: |   build: | ||||||
|     if: github.server_url != 'https://github.com' |  | ||||||
|     runs-on: ubuntu-latest |     runs-on: ubuntu-latest | ||||||
|     steps: |     steps: | ||||||
|     - name: checkout code |     - name: checkout code | ||||||
| @@ -41,8 +42,8 @@ jobs: | |||||||
|       name: autocommit |       name: autocommit | ||||||
|       with: |       with: | ||||||
|         commit_message: Apply Code Coverage Badge |         commit_message: Apply Code Coverage Badge | ||||||
|         skip_fetch: false |         skip_fetch: true | ||||||
|         skip_checkout: false |         skip_checkout: true | ||||||
|         file_pattern: ./README.md |         file_pattern: ./README.md | ||||||
| 
 | 
 | ||||||
|     - name: push |     - name: push | ||||||
| @@ -24,6 +24,6 @@ jobs: | |||||||
|     - name: setup deps |     - name: setup deps | ||||||
|       run: go get -v ./... |       run: go get -v ./... | ||||||
|     - name: run lint |     - name: run lint | ||||||
|       uses: golangci/golangci-lint-action@v6 |       uses: https://github.com/golangci/golangci-lint-action@v6 | ||||||
|       with: |       with: | ||||||
|         version: 'latest' |         version: 'latest' | ||||||
							
								
								
									
										54
									
								
								.gitea/workflows/job_syncpull.yml
									
									
									
									
									
										Normal file
									
								
							
							
						
						
									
										54
									
								
								.gitea/workflows/job_syncpull.yml
									
									
									
									
									
										Normal file
									
								
							| @@ -0,0 +1,54 @@ | |||||||
|  | name: syncpull | ||||||
|  |  | ||||||
|  | on: | ||||||
|  |   schedule: | ||||||
|  |     - cron: '* * * * *' | ||||||
|  |   # Allows you to run this workflow manually from the Actions tab | ||||||
|  |   workflow_dispatch: | ||||||
|  |  | ||||||
|  | jobs: | ||||||
|  |   pull: | ||||||
|  |     runs-on: ubuntu-latest | ||||||
|  |     steps: | ||||||
|  |     - name: init | ||||||
|  |       run: | | ||||||
|  |         git config --global user.email "vtolstov <vtolstov@users.noreply.github.com>" | ||||||
|  |         git config --global user.name "github-actions[bot]" | ||||||
|  |         echo "machine git.unistack.org login vtolstov password ${{ secrets.TOKEN_GITEA }}" | tee -a /root/.netrc | ||||||
|  |         echo "machine github.com login vtolstov password ${{ secrets.TOKEN_GITHUB }}" | tee -a /root/.netrc | ||||||
|  |  | ||||||
|  |     - name: track master | ||||||
|  |       run: | | ||||||
|  |         git clone --depth=10 --branch master --single-branch ${GITHUB_SERVER_URL}/${GITHUB_REPOSITORY} repo | ||||||
|  |         cd repo | ||||||
|  |         git remote add --no-tags --fetch --track master upstream https://github.com/${GITHUB_REPOSITORY} | ||||||
|  |         git pull --rebase upstream master | ||||||
|  |         git push upstream master --progress | ||||||
|  |         git merge --allow-unrelated-histories "upstream/master" | ||||||
|  |         git push origin master --progress | ||||||
|  |         cd ../ | ||||||
|  |         rm -rf repo | ||||||
|  |  | ||||||
|  |     - name: track v3 | ||||||
|  |       run: | | ||||||
|  |         git clone --depth=10 --branch v3 --single-branch ${GITHUB_SERVER_URL}/${GITHUB_REPOSITORY} repo | ||||||
|  |         cd repo | ||||||
|  |         git remote add --no-tags --fetch --track v3 upstream https://github.com/${GITHUB_REPOSITORY} | ||||||
|  |         git pull --rebase upstream v3 | ||||||
|  |         git push upstream v3 | ||||||
|  |         git merge --allow-unrelated-histories "upstream/v3" | ||||||
|  |         git push origin v3 --progress | ||||||
|  |         cd ../ | ||||||
|  |         rm -rf repo | ||||||
|  |  | ||||||
|  |     - name: track v4 | ||||||
|  |       run: | | ||||||
|  |         git clone --depth=10 --branch v4 --single-branch ${GITHUB_SERVER_URL}/${GITHUB_REPOSITORY} repo | ||||||
|  |         cd repo | ||||||
|  |         git remote add --no-tags --fetch --track v4 upstream https://github.com/${GITHUB_REPOSITORY} | ||||||
|  |         git pull --rebase upstream v4 | ||||||
|  |         git push upstream v4 | ||||||
|  |         git merge --allow-unrelated-histories "upstream/v4" | ||||||
|  |         git push origin v4 --progress | ||||||
|  |         cd ../ | ||||||
|  |         rm -rf repo | ||||||
| @@ -32,19 +32,19 @@ jobs: | |||||||
|         go-version: 'stable' |         go-version: 'stable' | ||||||
|     - name: setup go work |     - name: setup go work | ||||||
|       env: |       env: | ||||||
|         GOWORK: ${{ github.workspace }}/go.work |         GOWORK: /workspace/${{ github.repository_owner }}/go.work | ||||||
|       run: | |       run: | | ||||||
|         go work init |         go work init | ||||||
|         go work use . |         go work use . | ||||||
|         go work use micro-tests |         go work use micro-tests | ||||||
|     - name: setup deps |     - name: setup deps | ||||||
|       env: |       env: | ||||||
|         GOWORK: ${{ github.workspace }}/go.work |         GOWORK: /workspace/${{ github.repository_owner }}/go.work | ||||||
|       run: go get -v ./... |       run: go get -v ./... | ||||||
|     - name: run tests |     - name: run tests | ||||||
|       env: |       env: | ||||||
|         INTEGRATION_TESTS: yes |         INTEGRATION_TESTS: yes | ||||||
|         GOWORK: ${{ github.workspace }}/go.work |         GOWORK: /workspace/${{ github.repository_owner }}/go.work | ||||||
|       run: | |       run: | | ||||||
|         cd micro-tests |         cd micro-tests | ||||||
|         go test -mod readonly -v ./... || true |         go test -mod readonly -v ./... || true | ||||||
							
								
								
									
										94
									
								
								.github/workflows/job_sync.yml
									
									
									
									
										vendored
									
									
								
							
							
						
						
									
										94
									
								
								.github/workflows/job_sync.yml
									
									
									
									
										vendored
									
									
								
							| @@ -1,94 +0,0 @@ | |||||||
| name: sync |  | ||||||
|  |  | ||||||
| on: |  | ||||||
|   schedule: |  | ||||||
|     - cron: '*/5 * * * *' |  | ||||||
|   # Allows you to run this workflow manually from the Actions tab |  | ||||||
|   workflow_dispatch: |  | ||||||
|  |  | ||||||
| jobs: |  | ||||||
|   sync: |  | ||||||
|     if: github.server_url != 'https://github.com' |  | ||||||
|     runs-on: ubuntu-latest |  | ||||||
|     steps: |  | ||||||
|     - name: init |  | ||||||
|       run: | |  | ||||||
|         git config --global user.email "vtolstov <vtolstov@users.noreply.github.com>" |  | ||||||
|         git config --global user.name "github-actions[bot]" |  | ||||||
|         echo "machine git.unistack.org login vtolstov password ${{ secrets.TOKEN_GITEA }}" >> /root/.netrc |  | ||||||
|         echo "machine github.com login vtolstov password ${{ secrets.TOKEN_GITHUB }}" >> /root/.netrc |  | ||||||
|  |  | ||||||
|     - name: check master |  | ||||||
|       id: check_master |  | ||||||
|       run: | |  | ||||||
|         src_hash=$(git ls-remote https://github.com/${GITHUB_REPOSITORY} refs/heads/master | cut -f1) |  | ||||||
|         dst_hash=$(git ls-remote ${GITHUB_SERVER_URL}/${GITHUB_REPOSITORY} refs/heads/master | cut -f1) |  | ||||||
|         echo "src_hash=$src_hash" |  | ||||||
|         echo "dst_hash=$dst_hash" |  | ||||||
|         if [ "$src_hash" != "$dst_hash" ]; then |  | ||||||
|           echo "sync_needed=true" >> $GITHUB_OUTPUT |  | ||||||
|         else |  | ||||||
|           echo "sync_needed=false" >> $GITHUB_OUTPUT |  | ||||||
|         fi |  | ||||||
|  |  | ||||||
|     - name: sync master |  | ||||||
|       if: steps.check_master.outputs.sync_needed == 'true' |  | ||||||
|       run: | |  | ||||||
|         git clone --filter=blob:none --filter=tree:0 --branch master --single-branch ${GITHUB_SERVER_URL}/${GITHUB_REPOSITORY} repo |  | ||||||
|         cd repo |  | ||||||
|         git remote add --no-tags --fetch --track master upstream https://github.com/${GITHUB_REPOSITORY} |  | ||||||
|         git pull --rebase upstream master |  | ||||||
|         git push upstream master --progress |  | ||||||
|         git push origin master --progress |  | ||||||
|         cd ../ |  | ||||||
|         rm -rf repo |  | ||||||
|  |  | ||||||
|     - name: check v3 |  | ||||||
|       id: check_v3 |  | ||||||
|       run: | |  | ||||||
|         src_hash=$(git ls-remote https://github.com/${GITHUB_REPOSITORY} refs/heads/v3 | cut -f1) |  | ||||||
|         dst_hash=$(git ls-remote ${GITHUB_SERVER_URL}/${GITHUB_REPOSITORY} refs/heads/v3 | cut -f1) |  | ||||||
|         echo "src_hash=$src_hash" |  | ||||||
|         echo "dst_hash=$dst_hash" |  | ||||||
|         if [ "$src_hash" != "$dst_hash" ]; then |  | ||||||
|           echo "sync_needed=true" >> $GITHUB_OUTPUT |  | ||||||
|         else |  | ||||||
|           echo "sync_needed=false" >> $GITHUB_OUTPUT |  | ||||||
|         fi |  | ||||||
|  |  | ||||||
|     - name: sync v3 |  | ||||||
|       if: steps.check_v3.outputs.sync_needed == 'true' |  | ||||||
|       run: | |  | ||||||
|         git clone --filter=blob:none --filter=tree:0 --branch v3 --single-branch ${GITHUB_SERVER_URL}/${GITHUB_REPOSITORY} repo |  | ||||||
|         cd repo |  | ||||||
|         git remote add --no-tags --fetch --track v3 upstream https://github.com/${GITHUB_REPOSITORY} |  | ||||||
|         git pull --rebase upstream v3 |  | ||||||
|         git push upstream v3 --progress |  | ||||||
|         git push origin v3 --progress |  | ||||||
|         cd ../ |  | ||||||
|         rm -rf repo |  | ||||||
|  |  | ||||||
|     - name: check v4 |  | ||||||
|       id: check_v4 |  | ||||||
|       run: | |  | ||||||
|         src_hash=$(git ls-remote https://github.com/${GITHUB_REPOSITORY} refs/heads/v4 | cut -f1) |  | ||||||
|         dst_hash=$(git ls-remote ${GITHUB_SERVER_URL}/${GITHUB_REPOSITORY} refs/heads/v4 | cut -f1) |  | ||||||
|         echo "src_hash=$src_hash" |  | ||||||
|         echo "dst_hash=$dst_hash" |  | ||||||
|         if [ "$src_hash" != "$dst_hash" ]; then |  | ||||||
|           echo "sync_needed=true" >> $GITHUB_OUTPUT |  | ||||||
|         else |  | ||||||
|           echo "sync_needed=false" >> $GITHUB_OUTPUT |  | ||||||
|         fi |  | ||||||
|  |  | ||||||
|     - name: sync v4 |  | ||||||
|       if: steps.check_v4.outputs.sync_needed == 'true' |  | ||||||
|       run: | |  | ||||||
|         git clone --filter=blob:none --filter=tree:0 --branch v4 --single-branch ${GITHUB_SERVER_URL}/${GITHUB_REPOSITORY} repo |  | ||||||
|         cd repo |  | ||||||
|         git remote add --no-tags --fetch --track v4 upstream https://github.com/${GITHUB_REPOSITORY} |  | ||||||
|         git pull --rebase upstream v4 |  | ||||||
|         git push upstream v4 --progress |  | ||||||
|         git push origin v4 --progress |  | ||||||
|         cd ../ |  | ||||||
|         rm -rf repo |  | ||||||
| @@ -1,5 +1,5 @@ | |||||||
| # Micro | # Micro | ||||||
|  |  | ||||||
| [](https://opensource.org/licenses/Apache-2.0) | [](https://opensource.org/licenses/Apache-2.0) | ||||||
| [](https://pkg.go.dev/go.unistack.org/micro/v4?tab=overview) | [](https://pkg.go.dev/go.unistack.org/micro/v4?tab=overview) | ||||||
| [](https://git.unistack.org/unistack-org/micro/actions?query=workflow%3Abuild+branch%3Av4+event%3Apush) | [](https://git.unistack.org/unistack-org/micro/actions?query=workflow%3Abuild+branch%3Av4+event%3Apush) | ||||||
|   | |||||||
| @@ -41,7 +41,7 @@ type Broker interface { | |||||||
| 	// Disconnect disconnect from broker | 	// Disconnect disconnect from broker | ||||||
| 	Disconnect(ctx context.Context) error | 	Disconnect(ctx context.Context) error | ||||||
| 	// NewMessage create new broker message to publish. | 	// NewMessage create new broker message to publish. | ||||||
| 	NewMessage(ctx context.Context, hdr metadata.Metadata, body interface{}, opts ...MessageOption) (Message, error) | 	NewMessage(ctx context.Context, hdr metadata.Metadata, body interface{}, opts ...PublishOption) (Message, error) | ||||||
| 	// Publish message to broker topic | 	// Publish message to broker topic | ||||||
| 	Publish(ctx context.Context, topic string, messages ...Message) error | 	Publish(ctx context.Context, topic string, messages ...Message) error | ||||||
| 	// Subscribe subscribes to topic message via handler | 	// Subscribe subscribes to topic message via handler | ||||||
|   | |||||||
| @@ -42,9 +42,9 @@ func SetSubscribeOption(k, v interface{}) SubscribeOption { | |||||||
| 	} | 	} | ||||||
| } | } | ||||||
|  |  | ||||||
| // SetMessageOption returns a function to setup a context with given value | // SetPublishOption returns a function to setup a context with given value | ||||||
| func SetMessageOption(k, v interface{}) MessageOption { | func SetPublishOption(k, v interface{}) PublishOption { | ||||||
| 	return func(o *MessageOptions) { | 	return func(o *PublishOptions) { | ||||||
| 		if o.Context == nil { | 		if o.Context == nil { | ||||||
| 			o.Context = context.Background() | 			o.Context = context.Background() | ||||||
| 		} | 		} | ||||||
|   | |||||||
| @@ -22,8 +22,8 @@ type Broker struct { | |||||||
| 	subscribers   map[string][]*Subscriber | 	subscribers   map[string][]*Subscriber | ||||||
| 	addr          string | 	addr          string | ||||||
| 	opts          broker.Options | 	opts          broker.Options | ||||||
| 	mu            sync.RWMutex | 	sync.RWMutex | ||||||
| 	connected     bool | 	connected bool | ||||||
| } | } | ||||||
|  |  | ||||||
| type memoryMessage struct { | type memoryMessage struct { | ||||||
| @@ -32,7 +32,7 @@ type memoryMessage struct { | |||||||
| 	ctx   context.Context | 	ctx   context.Context | ||||||
| 	body  []byte | 	body  []byte | ||||||
| 	hdr   metadata.Metadata | 	hdr   metadata.Metadata | ||||||
| 	opts  broker.MessageOptions | 	opts  broker.PublishOptions | ||||||
| } | } | ||||||
|  |  | ||||||
| func (m *memoryMessage) Ack() error { | func (m *memoryMessage) Ack() error { | ||||||
| @@ -72,9 +72,9 @@ func (b *Broker) newCodec(ct string) (codec.Codec, error) { | |||||||
| 	if idx := strings.IndexRune(ct, ';'); idx >= 0 { | 	if idx := strings.IndexRune(ct, ';'); idx >= 0 { | ||||||
| 		ct = ct[:idx] | 		ct = ct[:idx] | ||||||
| 	} | 	} | ||||||
| 	b.mu.RLock() | 	b.RLock() | ||||||
| 	c, ok := b.opts.Codecs[ct] | 	c, ok := b.opts.Codecs[ct] | ||||||
| 	b.mu.RUnlock() | 	b.RUnlock() | ||||||
| 	if ok { | 	if ok { | ||||||
| 		return c, nil | 		return c, nil | ||||||
| 	} | 	} | ||||||
| @@ -96,8 +96,8 @@ func (b *Broker) Connect(ctx context.Context) error { | |||||||
| 	default: | 	default: | ||||||
| 	} | 	} | ||||||
|  |  | ||||||
| 	b.mu.Lock() | 	b.Lock() | ||||||
| 	defer b.mu.Unlock() | 	defer b.Unlock() | ||||||
|  |  | ||||||
| 	if b.connected { | 	if b.connected { | ||||||
| 		return nil | 		return nil | ||||||
| @@ -126,8 +126,8 @@ func (b *Broker) Disconnect(ctx context.Context) error { | |||||||
| 	default: | 	default: | ||||||
| 	} | 	} | ||||||
|  |  | ||||||
| 	b.mu.Lock() | 	b.Lock() | ||||||
| 	defer b.mu.Unlock() | 	defer b.Unlock() | ||||||
|  |  | ||||||
| 	if !b.connected { | 	if !b.connected { | ||||||
| 		return nil | 		return nil | ||||||
| @@ -157,11 +157,8 @@ func (b *Broker) Init(opts ...broker.Option) error { | |||||||
| 	return nil | 	return nil | ||||||
| } | } | ||||||
|  |  | ||||||
| func (b *Broker) NewMessage(ctx context.Context, hdr metadata.Metadata, body interface{}, opts ...broker.MessageOption) (broker.Message, error) { | func (b *Broker) NewMessage(ctx context.Context, hdr metadata.Metadata, body interface{}, opts ...broker.PublishOption) (broker.Message, error) { | ||||||
| 	options := broker.NewMessageOptions(opts...) | 	options := broker.NewPublishOptions(opts...) | ||||||
| 	if options.ContentType == "" { |  | ||||||
| 		options.ContentType = b.opts.ContentType |  | ||||||
| 	} |  | ||||||
| 	m := &memoryMessage{ctx: ctx, hdr: hdr, opts: options} | 	m := &memoryMessage{ctx: ctx, hdr: hdr, opts: options} | ||||||
| 	c, err := b.newCodec(m.opts.ContentType) | 	c, err := b.newCodec(m.opts.ContentType) | ||||||
| 	if err == nil { | 	if err == nil { | ||||||
| @@ -183,12 +180,12 @@ func (b *Broker) fnPublish(ctx context.Context, topic string, messages ...broker | |||||||
| } | } | ||||||
|  |  | ||||||
| func (b *Broker) publish(ctx context.Context, topic string, messages ...broker.Message) error { | func (b *Broker) publish(ctx context.Context, topic string, messages ...broker.Message) error { | ||||||
| 	b.mu.RLock() | 	b.RLock() | ||||||
| 	if !b.connected { | 	if !b.connected { | ||||||
| 		b.mu.RUnlock() | 		b.RUnlock() | ||||||
| 		return broker.ErrNotConnected | 		return broker.ErrNotConnected | ||||||
| 	} | 	} | ||||||
| 	b.mu.RUnlock() | 	b.RUnlock() | ||||||
|  |  | ||||||
| 	select { | 	select { | ||||||
| 	case <-ctx.Done(): | 	case <-ctx.Done(): | ||||||
| @@ -196,9 +193,9 @@ func (b *Broker) publish(ctx context.Context, topic string, messages ...broker.M | |||||||
| 	default: | 	default: | ||||||
| 	} | 	} | ||||||
|  |  | ||||||
| 	b.mu.RLock() | 	b.RLock() | ||||||
| 	subs, ok := b.subscribers[topic] | 	subs, ok := b.subscribers[topic] | ||||||
| 	b.mu.RUnlock() | 	b.RUnlock() | ||||||
| 	if !ok { | 	if !ok { | ||||||
| 		return nil | 		return nil | ||||||
| 	} | 	} | ||||||
| @@ -255,12 +252,12 @@ func (b *Broker) fnSubscribe(ctx context.Context, topic string, handler interfac | |||||||
| 		return nil, err | 		return nil, err | ||||||
| 	} | 	} | ||||||
|  |  | ||||||
| 	b.mu.RLock() | 	b.RLock() | ||||||
| 	if !b.connected { | 	if !b.connected { | ||||||
| 		b.mu.RUnlock() | 		b.RUnlock() | ||||||
| 		return nil, broker.ErrNotConnected | 		return nil, broker.ErrNotConnected | ||||||
| 	} | 	} | ||||||
| 	b.mu.RUnlock() | 	b.RUnlock() | ||||||
|  |  | ||||||
| 	sid, err := id.New() | 	sid, err := id.New() | ||||||
| 	if err != nil { | 	if err != nil { | ||||||
| @@ -278,13 +275,13 @@ func (b *Broker) fnSubscribe(ctx context.Context, topic string, handler interfac | |||||||
| 		ctx:     ctx, | 		ctx:     ctx, | ||||||
| 	} | 	} | ||||||
|  |  | ||||||
| 	b.mu.Lock() | 	b.Lock() | ||||||
| 	b.subscribers[topic] = append(b.subscribers[topic], sub) | 	b.subscribers[topic] = append(b.subscribers[topic], sub) | ||||||
| 	b.mu.Unlock() | 	b.Unlock() | ||||||
|  |  | ||||||
| 	go func() { | 	go func() { | ||||||
| 		<-sub.exit | 		<-sub.exit | ||||||
| 		b.mu.Lock() | 		b.Lock() | ||||||
| 		newSubscribers := make([]*Subscriber, 0, len(b.subscribers)-1) | 		newSubscribers := make([]*Subscriber, 0, len(b.subscribers)-1) | ||||||
| 		for _, sb := range b.subscribers[topic] { | 		for _, sb := range b.subscribers[topic] { | ||||||
| 			if sb.id == sub.id { | 			if sb.id == sub.id { | ||||||
| @@ -293,7 +290,7 @@ func (b *Broker) fnSubscribe(ctx context.Context, topic string, handler interfac | |||||||
| 			newSubscribers = append(newSubscribers, sb) | 			newSubscribers = append(newSubscribers, sb) | ||||||
| 		} | 		} | ||||||
| 		b.subscribers[topic] = newSubscribers | 		b.subscribers[topic] = newSubscribers | ||||||
| 		b.mu.Unlock() | 		b.Unlock() | ||||||
| 	}() | 	}() | ||||||
|  |  | ||||||
| 	return sub, nil | 	return sub, nil | ||||||
|   | |||||||
| @@ -49,7 +49,7 @@ func TestMemoryBroker(t *testing.T) { | |||||||
| 				"id", fmt.Sprintf("%d", i), | 				"id", fmt.Sprintf("%d", i), | ||||||
| 			), | 			), | ||||||
| 			[]byte(`"hello world"`), | 			[]byte(`"hello world"`), | ||||||
| 			broker.MessageContentType("application/octet-stream"), | 			broker.PublishContentType("application/octet-stream"), | ||||||
| 		) | 		) | ||||||
| 		if err != nil { | 		if err != nil { | ||||||
| 			t.Fatal(err) | 			t.Fatal(err) | ||||||
|   | |||||||
| @@ -14,16 +14,16 @@ type NoopBroker struct { | |||||||
| 	funcPublish   FuncPublish | 	funcPublish   FuncPublish | ||||||
| 	funcSubscribe FuncSubscribe | 	funcSubscribe FuncSubscribe | ||||||
| 	opts          Options | 	opts          Options | ||||||
| 	mu            sync.RWMutex | 	sync.RWMutex | ||||||
| } | } | ||||||
|  |  | ||||||
| func (b *NoopBroker) newCodec(ct string) (codec.Codec, error) { | func (b *NoopBroker) newCodec(ct string) (codec.Codec, error) { | ||||||
| 	if idx := strings.IndexRune(ct, ';'); idx >= 0 { | 	if idx := strings.IndexRune(ct, ';'); idx >= 0 { | ||||||
| 		ct = ct[:idx] | 		ct = ct[:idx] | ||||||
| 	} | 	} | ||||||
| 	b.mu.RLock() | 	b.RLock() | ||||||
| 	c, ok := b.opts.Codecs[ct] | 	c, ok := b.opts.Codecs[ct] | ||||||
| 	b.mu.RUnlock() | 	b.RUnlock() | ||||||
| 	if ok { | 	if ok { | ||||||
| 		return c, nil | 		return c, nil | ||||||
| 	} | 	} | ||||||
| @@ -99,7 +99,7 @@ type noopMessage struct { | |||||||
| 	ctx  context.Context | 	ctx  context.Context | ||||||
| 	body []byte | 	body []byte | ||||||
| 	hdr  metadata.Metadata | 	hdr  metadata.Metadata | ||||||
| 	opts MessageOptions | 	opts PublishOptions | ||||||
| } | } | ||||||
|  |  | ||||||
| func (m *noopMessage) Ack() error { | func (m *noopMessage) Ack() error { | ||||||
| @@ -126,11 +126,8 @@ func (m *noopMessage) Unmarshal(dst interface{}, opts ...codec.Option) error { | |||||||
| 	return m.c.Unmarshal(m.body, dst) | 	return m.c.Unmarshal(m.body, dst) | ||||||
| } | } | ||||||
|  |  | ||||||
| func (b *NoopBroker) NewMessage(ctx context.Context, hdr metadata.Metadata, body interface{}, opts ...MessageOption) (Message, error) { | func (b *NoopBroker) NewMessage(ctx context.Context, hdr metadata.Metadata, body interface{}, opts ...PublishOption) (Message, error) { | ||||||
| 	options := NewMessageOptions(opts...) | 	options := NewPublishOptions(opts...) | ||||||
| 	if options.ContentType == "" { |  | ||||||
| 		options.ContentType = b.opts.ContentType |  | ||||||
| 	} |  | ||||||
| 	m := &noopMessage{ctx: ctx, hdr: hdr, opts: options} | 	m := &noopMessage{ctx: ctx, hdr: hdr, opts: options} | ||||||
| 	c, err := b.newCodec(m.opts.ContentType) | 	c, err := b.newCodec(m.opts.ContentType) | ||||||
| 	if err == nil { | 	if err == nil { | ||||||
|   | |||||||
| @@ -45,9 +45,6 @@ type Options struct { | |||||||
|  |  | ||||||
| 	// GracefulTimeout contains time to wait to finish in flight requests | 	// GracefulTimeout contains time to wait to finish in flight requests | ||||||
| 	GracefulTimeout time.Duration | 	GracefulTimeout time.Duration | ||||||
|  |  | ||||||
| 	// ContentType will be used if no content-type set when creating message |  | ||||||
| 	ContentType string |  | ||||||
| } | } | ||||||
|  |  | ||||||
| // NewOptions create new Options | // NewOptions create new Options | ||||||
| @@ -60,19 +57,14 @@ func NewOptions(opts ...Option) Options { | |||||||
| 		Codecs:          make(map[string]codec.Codec), | 		Codecs:          make(map[string]codec.Codec), | ||||||
| 		Tracer:          tracer.DefaultTracer, | 		Tracer:          tracer.DefaultTracer, | ||||||
| 		GracefulTimeout: DefaultGracefulTimeout, | 		GracefulTimeout: DefaultGracefulTimeout, | ||||||
| 		ContentType:     DefaultContentType, |  | ||||||
| 	} | 	} | ||||||
|  |  | ||||||
| 	for _, o := range opts { | 	for _, o := range opts { | ||||||
| 		o(&options) | 		o(&options) | ||||||
| 	} | 	} | ||||||
|  |  | ||||||
| 	return options | 	return options | ||||||
| } | } | ||||||
|  |  | ||||||
| // DefaultContentType is the default content-type if not specified |  | ||||||
| var DefaultContentType = "" |  | ||||||
|  |  | ||||||
| // Context sets the context option | // Context sets the context option | ||||||
| func Context(ctx context.Context) Option { | func Context(ctx context.Context) Option { | ||||||
| 	return func(o *Options) { | 	return func(o *Options) { | ||||||
| @@ -80,15 +72,8 @@ func Context(ctx context.Context) Option { | |||||||
| 	} | 	} | ||||||
| } | } | ||||||
|  |  | ||||||
| // ContentType used by default if not specified | // PublishOptions struct | ||||||
| func ContentType(ct string) Option { | type PublishOptions struct { | ||||||
| 	return func(o *Options) { |  | ||||||
| 		o.ContentType = ct |  | ||||||
| 	} |  | ||||||
| } |  | ||||||
|  |  | ||||||
| // MessageOptions struct |  | ||||||
| type MessageOptions struct { |  | ||||||
| 	// ContentType for message body | 	// ContentType for message body | ||||||
| 	ContentType string | 	ContentType string | ||||||
| 	// BodyOnly flag says the message contains raw body bytes and don't need | 	// BodyOnly flag says the message contains raw body bytes and don't need | ||||||
| @@ -98,9 +83,9 @@ type MessageOptions struct { | |||||||
| 	Context context.Context | 	Context context.Context | ||||||
| } | } | ||||||
|  |  | ||||||
| // NewMessageOptions creates MessageOptions struct | // NewPublishOptions creates PublishOptions struct | ||||||
| func NewMessageOptions(opts ...MessageOption) MessageOptions { | func NewPublishOptions(opts ...PublishOption) PublishOptions { | ||||||
| 	options := MessageOptions{ | 	options := PublishOptions{ | ||||||
| 		Context: context.Background(), | 		Context: context.Background(), | ||||||
| 	} | 	} | ||||||
| 	for _, o := range opts { | 	for _, o := range opts { | ||||||
| @@ -128,19 +113,19 @@ type SubscribeOptions struct { | |||||||
| // Option func | // Option func | ||||||
| type Option func(*Options) | type Option func(*Options) | ||||||
|  |  | ||||||
| // MessageOption func | // PublishOption func | ||||||
| type MessageOption func(*MessageOptions) | type PublishOption func(*PublishOptions) | ||||||
|  |  | ||||||
| // MessageContentType sets message content-type that used to Marshal | // PublishContentType sets message content-type that used to Marshal | ||||||
| func MessageContentType(ct string) MessageOption { | func PublishContentType(ct string) PublishOption { | ||||||
| 	return func(o *MessageOptions) { | 	return func(o *PublishOptions) { | ||||||
| 		o.ContentType = ct | 		o.ContentType = ct | ||||||
| 	} | 	} | ||||||
| } | } | ||||||
|  |  | ||||||
| // MessageBodyOnly publish only body of the message | // PublishBodyOnly publish only body of the message | ||||||
| func MessageBodyOnly(b bool) MessageOption { | func PublishBodyOnly(b bool) PublishOption { | ||||||
| 	return func(o *MessageOptions) { | 	return func(o *PublishOptions) { | ||||||
| 		o.BodyOnly = b | 		o.BodyOnly = b | ||||||
| 	} | 	} | ||||||
| } | } | ||||||
|   | |||||||
| @@ -1,235 +0,0 @@ | |||||||
| package sql |  | ||||||
|  |  | ||||||
| import ( |  | ||||||
| 	"context" |  | ||||||
| 	"database/sql" |  | ||||||
| 	"reflect" |  | ||||||
| 	"unsafe" |  | ||||||
|  |  | ||||||
| 	"golang.yandex/hasql/v2" |  | ||||||
| ) |  | ||||||
|  |  | ||||||
| func newSQLRowError() *sql.Row { |  | ||||||
| 	row := &sql.Row{} |  | ||||||
| 	t := reflect.TypeOf(row).Elem() |  | ||||||
| 	field, _ := t.FieldByName("err") |  | ||||||
| 	rowPtr := unsafe.Pointer(row) |  | ||||||
| 	errFieldPtr := unsafe.Pointer(uintptr(rowPtr) + field.Offset) |  | ||||||
| 	errPtr := (*error)(errFieldPtr) |  | ||||||
| 	*errPtr = ErrorNoAliveNodes |  | ||||||
| 	return row |  | ||||||
| } |  | ||||||
|  |  | ||||||
| type ClusterQuerier interface { |  | ||||||
| 	Querier |  | ||||||
| 	WaitForNodes(ctx context.Context, criterion ...hasql.NodeStateCriterion) error |  | ||||||
| } |  | ||||||
|  |  | ||||||
| type Cluster struct { |  | ||||||
| 	hasql   *hasql.Cluster[Querier] |  | ||||||
| 	options ClusterOptions |  | ||||||
| } |  | ||||||
|  |  | ||||||
| // NewCluster returns [Querier] that provides cluster of nodes |  | ||||||
| func NewCluster[T Querier](opts ...ClusterOption) (ClusterQuerier, error) { |  | ||||||
| 	options := ClusterOptions{Context: context.Background()} |  | ||||||
| 	for _, opt := range opts { |  | ||||||
| 		opt(&options) |  | ||||||
| 	} |  | ||||||
| 	if options.NodeChecker == nil { |  | ||||||
| 		return nil, ErrClusterChecker |  | ||||||
| 	} |  | ||||||
| 	if options.NodeDiscoverer == nil { |  | ||||||
| 		return nil, ErrClusterDiscoverer |  | ||||||
| 	} |  | ||||||
| 	if options.NodePicker == nil { |  | ||||||
| 		return nil, ErrClusterPicker |  | ||||||
| 	} |  | ||||||
|  |  | ||||||
| 	if options.Retries < 1 { |  | ||||||
| 		options.Retries = 1 |  | ||||||
| 	} |  | ||||||
|  |  | ||||||
| 	if options.NodeStateCriterion == 0 { |  | ||||||
| 		options.NodeStateCriterion = hasql.Primary |  | ||||||
| 	} |  | ||||||
|  |  | ||||||
| 	options.Options = append(options.Options, hasql.WithNodePicker(options.NodePicker)) |  | ||||||
| 	if p, ok := options.NodePicker.(*CustomPicker[Querier]); ok { |  | ||||||
| 		p.opts.Priority = options.NodePriority |  | ||||||
| 	} |  | ||||||
|  |  | ||||||
| 	c, err := hasql.NewCluster( |  | ||||||
| 		options.NodeDiscoverer, |  | ||||||
| 		options.NodeChecker, |  | ||||||
| 		options.Options..., |  | ||||||
| 	) |  | ||||||
| 	if err != nil { |  | ||||||
| 		return nil, err |  | ||||||
| 	} |  | ||||||
|  |  | ||||||
| 	return &Cluster{hasql: c, options: options}, nil |  | ||||||
| } |  | ||||||
|  |  | ||||||
| func (c *Cluster) BeginTx(ctx context.Context, opts *sql.TxOptions) (*sql.Tx, error) { |  | ||||||
| 	var tx *sql.Tx |  | ||||||
| 	var err error |  | ||||||
|  |  | ||||||
| 	retries := 0 |  | ||||||
| 	c.hasql.NodesIter(c.getNodeStateCriterion(ctx))(func(n *hasql.Node[Querier]) bool { |  | ||||||
| 		for ; retries < c.options.Retries; retries++ { |  | ||||||
| 			if tx, err = n.DB().BeginTx(ctx, opts); err != nil && retries >= c.options.Retries { |  | ||||||
| 				return true |  | ||||||
| 			} |  | ||||||
| 		} |  | ||||||
| 		return false |  | ||||||
| 	}) |  | ||||||
|  |  | ||||||
| 	if tx == nil && err == nil { |  | ||||||
| 		err = ErrorNoAliveNodes |  | ||||||
| 	} |  | ||||||
|  |  | ||||||
| 	return tx, err |  | ||||||
| } |  | ||||||
|  |  | ||||||
| func (c *Cluster) Close() error { |  | ||||||
| 	return c.hasql.Close() |  | ||||||
| } |  | ||||||
|  |  | ||||||
| func (c *Cluster) Conn(ctx context.Context) (*sql.Conn, error) { |  | ||||||
| 	var conn *sql.Conn |  | ||||||
| 	var err error |  | ||||||
|  |  | ||||||
| 	retries := 0 |  | ||||||
| 	c.hasql.NodesIter(c.getNodeStateCriterion(ctx))(func(n *hasql.Node[Querier]) bool { |  | ||||||
| 		for ; retries < c.options.Retries; retries++ { |  | ||||||
| 			if conn, err = n.DB().Conn(ctx); err != nil && retries >= c.options.Retries { |  | ||||||
| 				return true |  | ||||||
| 			} |  | ||||||
| 		} |  | ||||||
| 		return false |  | ||||||
| 	}) |  | ||||||
|  |  | ||||||
| 	if conn == nil && err == nil { |  | ||||||
| 		err = ErrorNoAliveNodes |  | ||||||
| 	} |  | ||||||
|  |  | ||||||
| 	return conn, err |  | ||||||
| } |  | ||||||
|  |  | ||||||
| func (c *Cluster) ExecContext(ctx context.Context, query string, args ...interface{}) (sql.Result, error) { |  | ||||||
| 	var res sql.Result |  | ||||||
| 	var err error |  | ||||||
|  |  | ||||||
| 	retries := 0 |  | ||||||
| 	c.hasql.NodesIter(c.getNodeStateCriterion(ctx))(func(n *hasql.Node[Querier]) bool { |  | ||||||
| 		for ; retries < c.options.Retries; retries++ { |  | ||||||
| 			if res, err = n.DB().ExecContext(ctx, query, args...); err != nil && retries >= c.options.Retries { |  | ||||||
| 				return true |  | ||||||
| 			} |  | ||||||
| 		} |  | ||||||
| 		return false |  | ||||||
| 	}) |  | ||||||
|  |  | ||||||
| 	if res == nil && err == nil { |  | ||||||
| 		err = ErrorNoAliveNodes |  | ||||||
| 	} |  | ||||||
|  |  | ||||||
| 	return res, err |  | ||||||
| } |  | ||||||
|  |  | ||||||
| func (c *Cluster) PrepareContext(ctx context.Context, query string) (*sql.Stmt, error) { |  | ||||||
| 	var res *sql.Stmt |  | ||||||
| 	var err error |  | ||||||
|  |  | ||||||
| 	retries := 0 |  | ||||||
| 	c.hasql.NodesIter(c.getNodeStateCriterion(ctx))(func(n *hasql.Node[Querier]) bool { |  | ||||||
| 		for ; retries < c.options.Retries; retries++ { |  | ||||||
| 			if res, err = n.DB().PrepareContext(ctx, query); err != nil && retries >= c.options.Retries { |  | ||||||
| 				return true |  | ||||||
| 			} |  | ||||||
| 		} |  | ||||||
| 		return false |  | ||||||
| 	}) |  | ||||||
|  |  | ||||||
| 	if res == nil && err == nil { |  | ||||||
| 		err = ErrorNoAliveNodes |  | ||||||
| 	} |  | ||||||
|  |  | ||||||
| 	return res, err |  | ||||||
| } |  | ||||||
|  |  | ||||||
| func (c *Cluster) QueryContext(ctx context.Context, query string, args ...interface{}) (*sql.Rows, error) { |  | ||||||
| 	var res *sql.Rows |  | ||||||
| 	var err error |  | ||||||
|  |  | ||||||
| 	retries := 0 |  | ||||||
| 	c.hasql.NodesIter(c.getNodeStateCriterion(ctx))(func(n *hasql.Node[Querier]) bool { |  | ||||||
| 		for ; retries < c.options.Retries; retries++ { |  | ||||||
| 			if res, err = n.DB().QueryContext(ctx, query); err != nil && err != sql.ErrNoRows && retries >= c.options.Retries { |  | ||||||
| 				return true |  | ||||||
| 			} |  | ||||||
| 		} |  | ||||||
| 		return false |  | ||||||
| 	}) |  | ||||||
|  |  | ||||||
| 	if res == nil && err == nil { |  | ||||||
| 		err = ErrorNoAliveNodes |  | ||||||
| 	} |  | ||||||
|  |  | ||||||
| 	return res, err |  | ||||||
| } |  | ||||||
|  |  | ||||||
| func (c *Cluster) QueryRowContext(ctx context.Context, query string, args ...interface{}) *sql.Row { |  | ||||||
| 	var res *sql.Row |  | ||||||
|  |  | ||||||
| 	retries := 0 |  | ||||||
| 	c.hasql.NodesIter(c.getNodeStateCriterion(ctx))(func(n *hasql.Node[Querier]) bool { |  | ||||||
| 		for ; retries < c.options.Retries; retries++ { |  | ||||||
| 			res = n.DB().QueryRowContext(ctx, query, args...) |  | ||||||
| 			if res.Err() == nil { |  | ||||||
| 				return false |  | ||||||
| 			} else if res.Err() != nil && retries >= c.options.Retries { |  | ||||||
| 				return false |  | ||||||
| 			} |  | ||||||
| 		} |  | ||||||
| 		return true |  | ||||||
| 	}) |  | ||||||
|  |  | ||||||
| 	if res == nil { |  | ||||||
| 		res = newSQLRowError() |  | ||||||
| 	} |  | ||||||
|  |  | ||||||
| 	return res |  | ||||||
| } |  | ||||||
|  |  | ||||||
| func (c *Cluster) PingContext(ctx context.Context) error { |  | ||||||
| 	var err error |  | ||||||
| 	var ok bool |  | ||||||
|  |  | ||||||
| 	retries := 0 |  | ||||||
| 	c.hasql.NodesIter(c.getNodeStateCriterion(ctx))(func(n *hasql.Node[Querier]) bool { |  | ||||||
| 		ok = true |  | ||||||
| 		for ; retries < c.options.Retries; retries++ { |  | ||||||
| 			if err = n.DB().PingContext(ctx); err != nil && retries >= c.options.Retries { |  | ||||||
| 				return true |  | ||||||
| 			} |  | ||||||
| 		} |  | ||||||
| 		return false |  | ||||||
| 	}) |  | ||||||
|  |  | ||||||
| 	if !ok { |  | ||||||
| 		err = ErrorNoAliveNodes |  | ||||||
| 	} |  | ||||||
|  |  | ||||||
| 	return err |  | ||||||
| } |  | ||||||
|  |  | ||||||
| func (c *Cluster) WaitForNodes(ctx context.Context, criterions ...hasql.NodeStateCriterion) error { |  | ||||||
| 	for _, criterion := range criterions { |  | ||||||
| 		if _, err := c.hasql.WaitForNode(ctx, criterion); err != nil { |  | ||||||
| 			return err |  | ||||||
| 		} |  | ||||||
| 	} |  | ||||||
| 	return nil |  | ||||||
| } |  | ||||||
| @@ -1,171 +0,0 @@ | |||||||
| package sql |  | ||||||
|  |  | ||||||
| import ( |  | ||||||
| 	"context" |  | ||||||
| 	"fmt" |  | ||||||
| 	"testing" |  | ||||||
| 	"time" |  | ||||||
|  |  | ||||||
| 	"github.com/DATA-DOG/go-sqlmock" |  | ||||||
| 	"golang.yandex/hasql/v2" |  | ||||||
| ) |  | ||||||
|  |  | ||||||
| func TestNewCluster(t *testing.T) { |  | ||||||
| 	dbMaster, dbMasterMock, err := sqlmock.New(sqlmock.MonitorPingsOption(true)) |  | ||||||
| 	if err != nil { |  | ||||||
| 		t.Fatal(err) |  | ||||||
| 	} |  | ||||||
| 	defer dbMaster.Close() |  | ||||||
| 	dbMasterMock.MatchExpectationsInOrder(false) |  | ||||||
|  |  | ||||||
| 	dbMasterMock.ExpectQuery(`.*pg_is_in_recovery.*`).WillReturnRows( |  | ||||||
| 		sqlmock.NewRowsWithColumnDefinition( |  | ||||||
| 			sqlmock.NewColumn("role").OfType("int8", 0), |  | ||||||
| 			sqlmock.NewColumn("replication_lag").OfType("int8", 0)). |  | ||||||
| 			AddRow(1, 0)). |  | ||||||
| 		RowsWillBeClosed(). |  | ||||||
| 		WithoutArgs() |  | ||||||
|  |  | ||||||
| 	dbMasterMock.ExpectQuery(`SELECT node_name as name`).WillReturnRows( |  | ||||||
| 		sqlmock.NewRows([]string{"name"}). |  | ||||||
| 			AddRow("master-dc1")) |  | ||||||
|  |  | ||||||
| 	dbDRMaster, dbDRMasterMock, err := sqlmock.New(sqlmock.MonitorPingsOption(true)) |  | ||||||
| 	if err != nil { |  | ||||||
| 		t.Fatal(err) |  | ||||||
| 	} |  | ||||||
| 	defer dbDRMaster.Close() |  | ||||||
| 	dbDRMasterMock.MatchExpectationsInOrder(false) |  | ||||||
|  |  | ||||||
| 	dbDRMasterMock.ExpectQuery(`.*pg_is_in_recovery.*`).WillReturnRows( |  | ||||||
| 		sqlmock.NewRowsWithColumnDefinition( |  | ||||||
| 			sqlmock.NewColumn("role").OfType("int8", 0), |  | ||||||
| 			sqlmock.NewColumn("replication_lag").OfType("int8", 0)). |  | ||||||
| 			AddRow(2, 40)). |  | ||||||
| 		RowsWillBeClosed(). |  | ||||||
| 		WithoutArgs() |  | ||||||
|  |  | ||||||
| 	dbDRMasterMock.ExpectQuery(`SELECT node_name as name`).WillReturnRows( |  | ||||||
| 		sqlmock.NewRows([]string{"name"}). |  | ||||||
| 			AddRow("drmaster1-dc2")) |  | ||||||
|  |  | ||||||
| 	dbDRMasterMock.ExpectQuery(`SELECT node_name as name`).WillReturnRows( |  | ||||||
| 		sqlmock.NewRows([]string{"name"}). |  | ||||||
| 			AddRow("drmaster")) |  | ||||||
|  |  | ||||||
| 	dbSlaveDC1, dbSlaveDC1Mock, err := sqlmock.New(sqlmock.MonitorPingsOption(true)) |  | ||||||
| 	if err != nil { |  | ||||||
| 		t.Fatal(err) |  | ||||||
| 	} |  | ||||||
| 	defer dbSlaveDC1.Close() |  | ||||||
| 	dbSlaveDC1Mock.MatchExpectationsInOrder(false) |  | ||||||
|  |  | ||||||
| 	dbSlaveDC1Mock.ExpectQuery(`.*pg_is_in_recovery.*`).WillReturnRows( |  | ||||||
| 		sqlmock.NewRowsWithColumnDefinition( |  | ||||||
| 			sqlmock.NewColumn("role").OfType("int8", 0), |  | ||||||
| 			sqlmock.NewColumn("replication_lag").OfType("int8", 0)). |  | ||||||
| 			AddRow(2, 50)). |  | ||||||
| 		RowsWillBeClosed(). |  | ||||||
| 		WithoutArgs() |  | ||||||
|  |  | ||||||
| 	dbSlaveDC1Mock.ExpectQuery(`SELECT node_name as name`).WillReturnRows( |  | ||||||
| 		sqlmock.NewRows([]string{"name"}). |  | ||||||
| 			AddRow("slave-dc1")) |  | ||||||
|  |  | ||||||
| 	dbSlaveDC2, dbSlaveDC2Mock, err := sqlmock.New(sqlmock.MonitorPingsOption(true)) |  | ||||||
| 	if err != nil { |  | ||||||
| 		t.Fatal(err) |  | ||||||
| 	} |  | ||||||
| 	defer dbSlaveDC2.Close() |  | ||||||
| 	dbSlaveDC1Mock.MatchExpectationsInOrder(false) |  | ||||||
|  |  | ||||||
| 	dbSlaveDC2Mock.ExpectQuery(`.*pg_is_in_recovery.*`).WillReturnRows( |  | ||||||
| 		sqlmock.NewRowsWithColumnDefinition( |  | ||||||
| 			sqlmock.NewColumn("role").OfType("int8", 0), |  | ||||||
| 			sqlmock.NewColumn("replication_lag").OfType("int8", 0)). |  | ||||||
| 			AddRow(2, 50)). |  | ||||||
| 		RowsWillBeClosed(). |  | ||||||
| 		WithoutArgs() |  | ||||||
|  |  | ||||||
| 	dbSlaveDC2Mock.ExpectQuery(`SELECT node_name as name`).WillReturnRows( |  | ||||||
| 		sqlmock.NewRows([]string{"name"}). |  | ||||||
| 			AddRow("slave-dc1")) |  | ||||||
|  |  | ||||||
| 	tctx, cancel := context.WithTimeout(t.Context(), 10*time.Second) |  | ||||||
| 	defer cancel() |  | ||||||
|  |  | ||||||
| 	c, err := NewCluster[Querier]( |  | ||||||
| 		WithClusterContext(tctx), |  | ||||||
| 		WithClusterNodeChecker(hasql.PostgreSQLChecker), |  | ||||||
| 		WithClusterNodePicker(NewCustomPicker[Querier]( |  | ||||||
| 			CustomPickerMaxLag(100), |  | ||||||
| 		)), |  | ||||||
| 		WithClusterNodes( |  | ||||||
| 			ClusterNode{"slave-dc1", dbSlaveDC1, 1}, |  | ||||||
| 			ClusterNode{"master-dc1", dbMaster, 1}, |  | ||||||
| 			ClusterNode{"slave-dc2", dbSlaveDC2, 2}, |  | ||||||
| 			ClusterNode{"drmaster1-dc2", dbDRMaster, 0}, |  | ||||||
| 		), |  | ||||||
| 		WithClusterOptions( |  | ||||||
| 			hasql.WithUpdateInterval[Querier](2*time.Second), |  | ||||||
| 			hasql.WithUpdateTimeout[Querier](1*time.Second), |  | ||||||
| 		), |  | ||||||
| 	) |  | ||||||
| 	if err != nil { |  | ||||||
| 		t.Fatal(err) |  | ||||||
| 	} |  | ||||||
| 	defer c.Close() |  | ||||||
|  |  | ||||||
| 	if err = c.WaitForNodes(tctx, hasql.Primary, hasql.Standby); err != nil { |  | ||||||
| 		t.Fatal(err) |  | ||||||
| 	} |  | ||||||
|  |  | ||||||
| 	time.Sleep(500 * time.Millisecond) |  | ||||||
|  |  | ||||||
| 	node1Name := "" |  | ||||||
| 	fmt.Printf("check for Standby\n") |  | ||||||
| 	if row := c.QueryRowContext(NodeStateCriterion(tctx, hasql.Standby), "SELECT node_name as name"); row.Err() != nil { |  | ||||||
| 		t.Fatal(row.Err()) |  | ||||||
| 	} else if err = row.Scan(&node1Name); err != nil { |  | ||||||
| 		t.Fatal(err) |  | ||||||
| 	} else if "slave-dc1" != node1Name { |  | ||||||
| 		t.Fatalf("invalid node name %s != %s", "slave-dc1", node1Name) |  | ||||||
| 	} |  | ||||||
|  |  | ||||||
| 	dbSlaveDC1Mock.ExpectQuery(`SELECT node_name as name`).WillReturnRows( |  | ||||||
| 		sqlmock.NewRows([]string{"name"}). |  | ||||||
| 			AddRow("slave-dc1")) |  | ||||||
|  |  | ||||||
| 	node2Name := "" |  | ||||||
| 	fmt.Printf("check for PreferStandby\n") |  | ||||||
| 	if row := c.QueryRowContext(NodeStateCriterion(tctx, hasql.PreferStandby), "SELECT node_name as name"); row.Err() != nil { |  | ||||||
| 		t.Fatal(row.Err()) |  | ||||||
| 	} else if err = row.Scan(&node2Name); err != nil { |  | ||||||
| 		t.Fatal(err) |  | ||||||
| 	} else if "slave-dc1" != node2Name { |  | ||||||
| 		t.Fatalf("invalid node name %s != %s", "slave-dc1", node2Name) |  | ||||||
| 	} |  | ||||||
|  |  | ||||||
| 	node3Name := "" |  | ||||||
| 	fmt.Printf("check for PreferPrimary\n") |  | ||||||
| 	if row := c.QueryRowContext(NodeStateCriterion(tctx, hasql.PreferPrimary), "SELECT node_name as name"); row.Err() != nil { |  | ||||||
| 		t.Fatal(row.Err()) |  | ||||||
| 	} else if err = row.Scan(&node3Name); err != nil { |  | ||||||
| 		t.Fatal(err) |  | ||||||
| 	} else if "master-dc1" != node3Name { |  | ||||||
| 		t.Fatalf("invalid node name %s != %s", "master-dc1", node3Name) |  | ||||||
| 	} |  | ||||||
|  |  | ||||||
| 	dbSlaveDC1Mock.ExpectQuery(`.*`).WillReturnRows(sqlmock.NewRows([]string{"role"}).RowError(1, fmt.Errorf("row error"))) |  | ||||||
|  |  | ||||||
| 	time.Sleep(2 * time.Second) |  | ||||||
|  |  | ||||||
| 	fmt.Printf("check for PreferStandby\n") |  | ||||||
| 	if row := c.QueryRowContext(NodeStateCriterion(tctx, hasql.PreferStandby), "SELECT node_name as name"); row.Err() == nil { |  | ||||||
| 		t.Fatal("must return error") |  | ||||||
| 	} |  | ||||||
|  |  | ||||||
| 	if dbMasterErr := dbMasterMock.ExpectationsWereMet(); dbMasterErr != nil { |  | ||||||
| 		t.Error(dbMasterErr) |  | ||||||
| 	} |  | ||||||
| } |  | ||||||
| @@ -1,25 +0,0 @@ | |||||||
| package sql |  | ||||||
|  |  | ||||||
| import ( |  | ||||||
| 	"context" |  | ||||||
| 	"database/sql" |  | ||||||
| ) |  | ||||||
|  |  | ||||||
| type Querier interface { |  | ||||||
| 	// Basic connection methods |  | ||||||
| 	PingContext(ctx context.Context) error |  | ||||||
| 	Close() error |  | ||||||
|  |  | ||||||
| 	// Query methods with context |  | ||||||
| 	ExecContext(ctx context.Context, query string, args ...interface{}) (sql.Result, error) |  | ||||||
| 	QueryContext(ctx context.Context, query string, args ...interface{}) (*sql.Rows, error) |  | ||||||
| 	QueryRowContext(ctx context.Context, query string, args ...interface{}) *sql.Row |  | ||||||
|  |  | ||||||
| 	// Prepared statements with context |  | ||||||
| 	PrepareContext(ctx context.Context, query string) (*sql.Stmt, error) |  | ||||||
|  |  | ||||||
| 	// Transaction management with context |  | ||||||
| 	BeginTx(ctx context.Context, opts *sql.TxOptions) (*sql.Tx, error) |  | ||||||
|  |  | ||||||
| 	Conn(ctx context.Context) (*sql.Conn, error) |  | ||||||
| } |  | ||||||
| @@ -1,295 +0,0 @@ | |||||||
| package sql |  | ||||||
|  |  | ||||||
| import ( |  | ||||||
| 	"context" |  | ||||||
| 	"database/sql" |  | ||||||
| 	"database/sql/driver" |  | ||||||
| 	"io" |  | ||||||
| 	"sync" |  | ||||||
| 	"time" |  | ||||||
| ) |  | ||||||
|  |  | ||||||
| // OpenDBWithCluster creates a [*sql.DB] that uses the [ClusterQuerier] |  | ||||||
| func OpenDBWithCluster(db ClusterQuerier) (*sql.DB, error) { |  | ||||||
| 	driver := NewClusterDriver(db) |  | ||||||
| 	connector, err := driver.OpenConnector("") |  | ||||||
| 	if err != nil { |  | ||||||
| 		return nil, err |  | ||||||
| 	} |  | ||||||
| 	return sql.OpenDB(connector), nil |  | ||||||
| } |  | ||||||
|  |  | ||||||
| // ClusterDriver implements [driver.Driver] and driver.Connector for an existing [Querier] |  | ||||||
| type ClusterDriver struct { |  | ||||||
| 	db ClusterQuerier |  | ||||||
| } |  | ||||||
|  |  | ||||||
| // NewClusterDriver creates a new [driver.Driver] that uses an existing [ClusterQuerier] |  | ||||||
| func NewClusterDriver(db ClusterQuerier) *ClusterDriver { |  | ||||||
| 	return &ClusterDriver{db: db} |  | ||||||
| } |  | ||||||
|  |  | ||||||
| // Open implements [driver.Driver.Open] |  | ||||||
| func (d *ClusterDriver) Open(name string) (driver.Conn, error) { |  | ||||||
| 	return d.Connect(context.Background()) |  | ||||||
| } |  | ||||||
|  |  | ||||||
| // OpenConnector implements [driver.DriverContext.OpenConnector] |  | ||||||
| func (d *ClusterDriver) OpenConnector(name string) (driver.Connector, error) { |  | ||||||
| 	return d, nil |  | ||||||
| } |  | ||||||
|  |  | ||||||
| // Connect implements [driver.Connector.Connect] |  | ||||||
| func (d *ClusterDriver) Connect(ctx context.Context) (driver.Conn, error) { |  | ||||||
| 	conn, err := d.db.Conn(ctx) |  | ||||||
| 	if err != nil { |  | ||||||
| 		return nil, err |  | ||||||
| 	} |  | ||||||
| 	return &dbConn{conn: conn}, nil |  | ||||||
| } |  | ||||||
|  |  | ||||||
| // Driver implements [driver.Connector.Driver] |  | ||||||
| func (d *ClusterDriver) Driver() driver.Driver { |  | ||||||
| 	return d |  | ||||||
| } |  | ||||||
|  |  | ||||||
| // dbConn implements driver.Conn with both context and legacy methods |  | ||||||
| type dbConn struct { |  | ||||||
| 	conn *sql.Conn |  | ||||||
| 	mu   sync.Mutex |  | ||||||
| } |  | ||||||
|  |  | ||||||
| // Prepare implements [driver.Conn.Prepare] (legacy method) |  | ||||||
| func (c *dbConn) Prepare(query string) (driver.Stmt, error) { |  | ||||||
| 	return c.PrepareContext(context.Background(), query) |  | ||||||
| } |  | ||||||
|  |  | ||||||
| // PrepareContext implements [driver.ConnPrepareContext.PrepareContext] |  | ||||||
| func (c *dbConn) PrepareContext(ctx context.Context, query string) (driver.Stmt, error) { |  | ||||||
| 	c.mu.Lock() |  | ||||||
| 	defer c.mu.Unlock() |  | ||||||
|  |  | ||||||
| 	stmt, err := c.conn.PrepareContext(ctx, query) |  | ||||||
| 	if err != nil { |  | ||||||
| 		return nil, err |  | ||||||
| 	} |  | ||||||
|  |  | ||||||
| 	return &dbStmt{stmt: stmt}, nil |  | ||||||
| } |  | ||||||
|  |  | ||||||
| // Exec implements [driver.Execer.Exec] (legacy method) |  | ||||||
| func (c *dbConn) Exec(query string, args []driver.Value) (driver.Result, error) { |  | ||||||
| 	namedArgs := make([]driver.NamedValue, len(args)) |  | ||||||
| 	for i, value := range args { |  | ||||||
| 		namedArgs[i] = driver.NamedValue{Value: value} |  | ||||||
| 	} |  | ||||||
| 	return c.ExecContext(context.Background(), query, namedArgs) |  | ||||||
| } |  | ||||||
|  |  | ||||||
| // ExecContext implements [driver.ExecerContext.ExecContext] |  | ||||||
| func (c *dbConn) ExecContext(ctx context.Context, query string, args []driver.NamedValue) (driver.Result, error) { |  | ||||||
| 	c.mu.Lock() |  | ||||||
| 	defer c.mu.Unlock() |  | ||||||
|  |  | ||||||
| 	// Convert driver.NamedValue to any |  | ||||||
| 	interfaceArgs := make([]any, len(args)) |  | ||||||
| 	for i, arg := range args { |  | ||||||
| 		interfaceArgs[i] = arg.Value |  | ||||||
| 	} |  | ||||||
|  |  | ||||||
| 	return c.conn.ExecContext(ctx, query, interfaceArgs...) |  | ||||||
| } |  | ||||||
|  |  | ||||||
| // Query implements [driver.Queryer.Query] (legacy method) |  | ||||||
| func (c *dbConn) Query(query string, args []driver.Value) (driver.Rows, error) { |  | ||||||
| 	namedArgs := make([]driver.NamedValue, len(args)) |  | ||||||
| 	for i, value := range args { |  | ||||||
| 		namedArgs[i] = driver.NamedValue{Value: value} |  | ||||||
| 	} |  | ||||||
| 	return c.QueryContext(context.Background(), query, namedArgs) |  | ||||||
| } |  | ||||||
|  |  | ||||||
| // QueryContext implements [driver.QueryerContext.QueryContext] |  | ||||||
| func (c *dbConn) QueryContext(ctx context.Context, query string, args []driver.NamedValue) (driver.Rows, error) { |  | ||||||
| 	c.mu.Lock() |  | ||||||
| 	defer c.mu.Unlock() |  | ||||||
|  |  | ||||||
| 	// Convert driver.NamedValue to any |  | ||||||
| 	interfaceArgs := make([]any, len(args)) |  | ||||||
| 	for i, arg := range args { |  | ||||||
| 		interfaceArgs[i] = arg.Value |  | ||||||
| 	} |  | ||||||
|  |  | ||||||
| 	rows, err := c.conn.QueryContext(ctx, query, interfaceArgs...) |  | ||||||
| 	if err != nil { |  | ||||||
| 		return nil, err |  | ||||||
| 	} |  | ||||||
|  |  | ||||||
| 	return &dbRows{rows: rows}, nil |  | ||||||
| } |  | ||||||
|  |  | ||||||
| // Begin implements [driver.Conn.Begin] (legacy method) |  | ||||||
| func (c *dbConn) Begin() (driver.Tx, error) { |  | ||||||
| 	return c.BeginTx(context.Background(), driver.TxOptions{}) |  | ||||||
| } |  | ||||||
|  |  | ||||||
| // BeginTx implements [driver.ConnBeginTx.BeginTx] |  | ||||||
| func (c *dbConn) BeginTx(ctx context.Context, opts driver.TxOptions) (driver.Tx, error) { |  | ||||||
| 	c.mu.Lock() |  | ||||||
| 	defer c.mu.Unlock() |  | ||||||
|  |  | ||||||
| 	sqlOpts := &sql.TxOptions{ |  | ||||||
| 		Isolation: sql.IsolationLevel(opts.Isolation), |  | ||||||
| 		ReadOnly:  opts.ReadOnly, |  | ||||||
| 	} |  | ||||||
|  |  | ||||||
| 	tx, err := c.conn.BeginTx(ctx, sqlOpts) |  | ||||||
| 	if err != nil { |  | ||||||
| 		return nil, err |  | ||||||
| 	} |  | ||||||
|  |  | ||||||
| 	return &dbTx{tx: tx}, nil |  | ||||||
| } |  | ||||||
|  |  | ||||||
| // Ping implements [driver.Pinger.Ping] |  | ||||||
| func (c *dbConn) Ping(ctx context.Context) error { |  | ||||||
| 	return c.conn.PingContext(ctx) |  | ||||||
| } |  | ||||||
|  |  | ||||||
| // Close implements [driver.Conn.Close] |  | ||||||
| func (c *dbConn) Close() error { |  | ||||||
| 	return c.conn.Close() |  | ||||||
| } |  | ||||||
|  |  | ||||||
| // IsValid implements [driver.Validator.IsValid] |  | ||||||
| func (c *dbConn) IsValid() bool { |  | ||||||
| 	// Ping with a short timeout to check if the connection is still valid |  | ||||||
| 	ctx, cancel := context.WithTimeout(context.Background(), 1*time.Second) |  | ||||||
| 	defer cancel() |  | ||||||
|  |  | ||||||
| 	return c.conn.PingContext(ctx) == nil |  | ||||||
| } |  | ||||||
|  |  | ||||||
| // dbStmt implements [driver.Stmt] with both context and legacy methods |  | ||||||
| type dbStmt struct { |  | ||||||
| 	stmt *sql.Stmt |  | ||||||
| 	mu   sync.Mutex |  | ||||||
| } |  | ||||||
|  |  | ||||||
| // Close implements [driver.Stmt.Close] |  | ||||||
| func (s *dbStmt) Close() error { |  | ||||||
| 	s.mu.Lock() |  | ||||||
| 	defer s.mu.Unlock() |  | ||||||
| 	return s.stmt.Close() |  | ||||||
| } |  | ||||||
|  |  | ||||||
| // Close implements [driver.Stmt.NumInput] |  | ||||||
| func (s *dbStmt) NumInput() int { |  | ||||||
| 	return -1 // Number of parameters is unknown |  | ||||||
| } |  | ||||||
|  |  | ||||||
| // Exec implements [driver.Stmt.Exec] (legacy method) |  | ||||||
| func (s *dbStmt) Exec(args []driver.Value) (driver.Result, error) { |  | ||||||
| 	namedArgs := make([]driver.NamedValue, len(args)) |  | ||||||
| 	for i, value := range args { |  | ||||||
| 		namedArgs[i] = driver.NamedValue{Value: value} |  | ||||||
| 	} |  | ||||||
| 	return s.ExecContext(context.Background(), namedArgs) |  | ||||||
| } |  | ||||||
|  |  | ||||||
| // ExecContext implements [driver.StmtExecContext.ExecContext] |  | ||||||
| func (s *dbStmt) ExecContext(ctx context.Context, args []driver.NamedValue) (driver.Result, error) { |  | ||||||
| 	s.mu.Lock() |  | ||||||
| 	defer s.mu.Unlock() |  | ||||||
|  |  | ||||||
| 	interfaceArgs := make([]any, len(args)) |  | ||||||
| 	for i, arg := range args { |  | ||||||
| 		interfaceArgs[i] = arg.Value |  | ||||||
| 	} |  | ||||||
| 	return s.stmt.ExecContext(ctx, interfaceArgs...) |  | ||||||
| } |  | ||||||
|  |  | ||||||
| // Query implements [driver.Stmt.Query] (legacy method) |  | ||||||
| func (s *dbStmt) Query(args []driver.Value) (driver.Rows, error) { |  | ||||||
| 	namedArgs := make([]driver.NamedValue, len(args)) |  | ||||||
| 	for i, value := range args { |  | ||||||
| 		namedArgs[i] = driver.NamedValue{Value: value} |  | ||||||
| 	} |  | ||||||
| 	return s.QueryContext(context.Background(), namedArgs) |  | ||||||
| } |  | ||||||
|  |  | ||||||
| // QueryContext implements [driver.StmtQueryContext.QueryContext] |  | ||||||
| func (s *dbStmt) QueryContext(ctx context.Context, args []driver.NamedValue) (driver.Rows, error) { |  | ||||||
| 	s.mu.Lock() |  | ||||||
| 	defer s.mu.Unlock() |  | ||||||
|  |  | ||||||
| 	interfaceArgs := make([]any, len(args)) |  | ||||||
| 	for i, arg := range args { |  | ||||||
| 		interfaceArgs[i] = arg.Value |  | ||||||
| 	} |  | ||||||
|  |  | ||||||
| 	rows, err := s.stmt.QueryContext(ctx, interfaceArgs...) |  | ||||||
| 	if err != nil { |  | ||||||
| 		return nil, err |  | ||||||
| 	} |  | ||||||
|  |  | ||||||
| 	return &dbRows{rows: rows}, nil |  | ||||||
| } |  | ||||||
|  |  | ||||||
| // dbRows implements [driver.Rows] |  | ||||||
| type dbRows struct { |  | ||||||
| 	rows *sql.Rows |  | ||||||
| } |  | ||||||
|  |  | ||||||
| // Columns implements [driver.Rows.Columns] |  | ||||||
| func (r *dbRows) Columns() []string { |  | ||||||
| 	cols, err := r.rows.Columns() |  | ||||||
| 	if err != nil { |  | ||||||
| 		// This shouldn't happen if the query was successful |  | ||||||
| 		return []string{} |  | ||||||
| 	} |  | ||||||
| 	return cols |  | ||||||
| } |  | ||||||
|  |  | ||||||
| // Close implements [driver.Rows.Close] |  | ||||||
| func (r *dbRows) Close() error { |  | ||||||
| 	return r.rows.Close() |  | ||||||
| } |  | ||||||
|  |  | ||||||
| // Next implements [driver.Rows.Next] |  | ||||||
| func (r *dbRows) Next(dest []driver.Value) error { |  | ||||||
| 	if !r.rows.Next() { |  | ||||||
| 		if err := r.rows.Err(); err != nil { |  | ||||||
| 			return err |  | ||||||
| 		} |  | ||||||
| 		return io.EOF |  | ||||||
| 	} |  | ||||||
|  |  | ||||||
| 	// Create a slice of interfaces to scan into |  | ||||||
| 	scanArgs := make([]any, len(dest)) |  | ||||||
| 	for i := range scanArgs { |  | ||||||
| 		scanArgs[i] = &dest[i] |  | ||||||
| 	} |  | ||||||
|  |  | ||||||
| 	return r.rows.Scan(scanArgs...) |  | ||||||
| } |  | ||||||
|  |  | ||||||
| // dbTx implements [driver.Tx] |  | ||||||
| type dbTx struct { |  | ||||||
| 	tx *sql.Tx |  | ||||||
| 	mu sync.Mutex |  | ||||||
| } |  | ||||||
|  |  | ||||||
| // Commit implements [driver.Tx.Commit] |  | ||||||
| func (t *dbTx) Commit() error { |  | ||||||
| 	t.mu.Lock() |  | ||||||
| 	defer t.mu.Unlock() |  | ||||||
| 	return t.tx.Commit() |  | ||||||
| } |  | ||||||
|  |  | ||||||
| // Rollback implements [driver.Tx.Rollback] |  | ||||||
| func (t *dbTx) Rollback() error { |  | ||||||
| 	t.mu.Lock() |  | ||||||
| 	defer t.mu.Unlock() |  | ||||||
| 	return t.tx.Rollback() |  | ||||||
| } |  | ||||||
| @@ -1,141 +0,0 @@ | |||||||
| package sql |  | ||||||
|  |  | ||||||
| import ( |  | ||||||
| 	"context" |  | ||||||
| 	"testing" |  | ||||||
| 	"time" |  | ||||||
|  |  | ||||||
| 	"github.com/DATA-DOG/go-sqlmock" |  | ||||||
| 	"golang.yandex/hasql/v2" |  | ||||||
| ) |  | ||||||
|  |  | ||||||
| func TestDriver(t *testing.T) { |  | ||||||
| 	dbMaster, dbMasterMock, err := sqlmock.New(sqlmock.MonitorPingsOption(true)) |  | ||||||
| 	if err != nil { |  | ||||||
| 		t.Fatal(err) |  | ||||||
| 	} |  | ||||||
| 	defer dbMaster.Close() |  | ||||||
| 	dbMasterMock.MatchExpectationsInOrder(false) |  | ||||||
|  |  | ||||||
| 	dbMasterMock.ExpectQuery(`.*pg_is_in_recovery.*`).WillReturnRows( |  | ||||||
| 		sqlmock.NewRowsWithColumnDefinition( |  | ||||||
| 			sqlmock.NewColumn("role").OfType("int8", 0), |  | ||||||
| 			sqlmock.NewColumn("replication_lag").OfType("int8", 0)). |  | ||||||
| 			AddRow(1, 0)). |  | ||||||
| 		RowsWillBeClosed(). |  | ||||||
| 		WithoutArgs() |  | ||||||
|  |  | ||||||
| 	dbMasterMock.ExpectQuery(`SELECT node_name as name`).WillReturnRows( |  | ||||||
| 		sqlmock.NewRows([]string{"name"}). |  | ||||||
| 			AddRow("master-dc1")) |  | ||||||
|  |  | ||||||
| 	dbDRMaster, dbDRMasterMock, err := sqlmock.New(sqlmock.MonitorPingsOption(true)) |  | ||||||
| 	if err != nil { |  | ||||||
| 		t.Fatal(err) |  | ||||||
| 	} |  | ||||||
| 	defer dbDRMaster.Close() |  | ||||||
| 	dbDRMasterMock.MatchExpectationsInOrder(false) |  | ||||||
|  |  | ||||||
| 	dbDRMasterMock.ExpectQuery(`.*pg_is_in_recovery.*`).WillReturnRows( |  | ||||||
| 		sqlmock.NewRowsWithColumnDefinition( |  | ||||||
| 			sqlmock.NewColumn("role").OfType("int8", 0), |  | ||||||
| 			sqlmock.NewColumn("replication_lag").OfType("int8", 0)). |  | ||||||
| 			AddRow(2, 40)). |  | ||||||
| 		RowsWillBeClosed(). |  | ||||||
| 		WithoutArgs() |  | ||||||
|  |  | ||||||
| 	dbDRMasterMock.ExpectQuery(`SELECT node_name as name`).WillReturnRows( |  | ||||||
| 		sqlmock.NewRows([]string{"name"}). |  | ||||||
| 			AddRow("drmaster1-dc2")) |  | ||||||
|  |  | ||||||
| 	dbDRMasterMock.ExpectQuery(`SELECT node_name as name`).WillReturnRows( |  | ||||||
| 		sqlmock.NewRows([]string{"name"}). |  | ||||||
| 			AddRow("drmaster")) |  | ||||||
|  |  | ||||||
| 	dbSlaveDC1, dbSlaveDC1Mock, err := sqlmock.New(sqlmock.MonitorPingsOption(true)) |  | ||||||
| 	if err != nil { |  | ||||||
| 		t.Fatal(err) |  | ||||||
| 	} |  | ||||||
| 	defer dbSlaveDC1.Close() |  | ||||||
| 	dbSlaveDC1Mock.MatchExpectationsInOrder(false) |  | ||||||
|  |  | ||||||
| 	dbSlaveDC1Mock.ExpectQuery(`.*pg_is_in_recovery.*`).WillReturnRows( |  | ||||||
| 		sqlmock.NewRowsWithColumnDefinition( |  | ||||||
| 			sqlmock.NewColumn("role").OfType("int8", 0), |  | ||||||
| 			sqlmock.NewColumn("replication_lag").OfType("int8", 0)). |  | ||||||
| 			AddRow(2, 50)). |  | ||||||
| 		RowsWillBeClosed(). |  | ||||||
| 		WithoutArgs() |  | ||||||
|  |  | ||||||
| 	dbSlaveDC1Mock.ExpectQuery(`SELECT node_name as name`).WillReturnRows( |  | ||||||
| 		sqlmock.NewRows([]string{"name"}). |  | ||||||
| 			AddRow("slave-dc1")) |  | ||||||
|  |  | ||||||
| 	dbSlaveDC2, dbSlaveDC2Mock, err := sqlmock.New(sqlmock.MonitorPingsOption(true)) |  | ||||||
| 	if err != nil { |  | ||||||
| 		t.Fatal(err) |  | ||||||
| 	} |  | ||||||
| 	defer dbSlaveDC2.Close() |  | ||||||
| 	dbSlaveDC1Mock.MatchExpectationsInOrder(false) |  | ||||||
|  |  | ||||||
| 	dbSlaveDC2Mock.ExpectQuery(`.*pg_is_in_recovery.*`).WillReturnRows( |  | ||||||
| 		sqlmock.NewRowsWithColumnDefinition( |  | ||||||
| 			sqlmock.NewColumn("role").OfType("int8", 0), |  | ||||||
| 			sqlmock.NewColumn("replication_lag").OfType("int8", 0)). |  | ||||||
| 			AddRow(2, 50)). |  | ||||||
| 		RowsWillBeClosed(). |  | ||||||
| 		WithoutArgs() |  | ||||||
|  |  | ||||||
| 	dbSlaveDC2Mock.ExpectQuery(`SELECT node_name as name`).WillReturnRows( |  | ||||||
| 		sqlmock.NewRows([]string{"name"}). |  | ||||||
| 			AddRow("slave-dc1")) |  | ||||||
|  |  | ||||||
| 	tctx, cancel := context.WithTimeout(t.Context(), 10*time.Second) |  | ||||||
| 	defer cancel() |  | ||||||
|  |  | ||||||
| 	c, err := NewCluster[Querier]( |  | ||||||
| 		WithClusterContext(tctx), |  | ||||||
| 		WithClusterNodeChecker(hasql.PostgreSQLChecker), |  | ||||||
| 		WithClusterNodePicker(NewCustomPicker[Querier]( |  | ||||||
| 			CustomPickerMaxLag(100), |  | ||||||
| 		)), |  | ||||||
| 		WithClusterNodes( |  | ||||||
| 			ClusterNode{"slave-dc1", dbSlaveDC1, 1}, |  | ||||||
| 			ClusterNode{"master-dc1", dbMaster, 1}, |  | ||||||
| 			ClusterNode{"slave-dc2", dbSlaveDC2, 2}, |  | ||||||
| 			ClusterNode{"drmaster1-dc2", dbDRMaster, 0}, |  | ||||||
| 		), |  | ||||||
| 		WithClusterOptions( |  | ||||||
| 			hasql.WithUpdateInterval[Querier](2*time.Second), |  | ||||||
| 			hasql.WithUpdateTimeout[Querier](1*time.Second), |  | ||||||
| 		), |  | ||||||
| 	) |  | ||||||
| 	if err != nil { |  | ||||||
| 		t.Fatal(err) |  | ||||||
| 	} |  | ||||||
| 	defer c.Close() |  | ||||||
|  |  | ||||||
| 	if err = c.WaitForNodes(tctx, hasql.Primary, hasql.Standby); err != nil { |  | ||||||
| 		t.Fatal(err) |  | ||||||
| 	} |  | ||||||
|  |  | ||||||
| 	db, err := OpenDBWithCluster(c) |  | ||||||
| 	if err != nil { |  | ||||||
| 		t.Fatal(err) |  | ||||||
| 	} |  | ||||||
|  |  | ||||||
| 	// Use context methods |  | ||||||
| 	row := db.QueryRowContext(NodeStateCriterion(t.Context(), hasql.Primary), "SELECT node_name as name") |  | ||||||
| 	if err = row.Err(); err != nil { |  | ||||||
| 		t.Fatal(err) |  | ||||||
| 	} |  | ||||||
|  |  | ||||||
| 	nodeName := "" |  | ||||||
| 	if err = row.Scan(&nodeName); err != nil { |  | ||||||
| 		t.Fatal(err) |  | ||||||
| 	} |  | ||||||
|  |  | ||||||
| 	if nodeName != "master-dc1" { |  | ||||||
| 		t.Fatalf("invalid node_name %s != %s", "master-dc1", nodeName) |  | ||||||
| 	} |  | ||||||
| } |  | ||||||
| @@ -1,10 +0,0 @@ | |||||||
| package sql |  | ||||||
|  |  | ||||||
| import "errors" |  | ||||||
|  |  | ||||||
| var ( |  | ||||||
| 	ErrClusterChecker    = errors.New("cluster node checker required") |  | ||||||
| 	ErrClusterDiscoverer = errors.New("cluster node discoverer required") |  | ||||||
| 	ErrClusterPicker     = errors.New("cluster node picker required") |  | ||||||
| 	ErrorNoAliveNodes    = errors.New("cluster no alive nodes") |  | ||||||
| ) |  | ||||||
| @@ -1,110 +0,0 @@ | |||||||
| package sql |  | ||||||
|  |  | ||||||
| import ( |  | ||||||
| 	"context" |  | ||||||
| 	"math" |  | ||||||
|  |  | ||||||
| 	"golang.yandex/hasql/v2" |  | ||||||
| ) |  | ||||||
|  |  | ||||||
| // ClusterOptions contains cluster specific options |  | ||||||
| type ClusterOptions struct { |  | ||||||
| 	NodeChecker        hasql.NodeChecker |  | ||||||
| 	NodePicker         hasql.NodePicker[Querier] |  | ||||||
| 	NodeDiscoverer     hasql.NodeDiscoverer[Querier] |  | ||||||
| 	Options            []hasql.ClusterOpt[Querier] |  | ||||||
| 	Context            context.Context |  | ||||||
| 	Retries            int |  | ||||||
| 	NodePriority       map[string]int32 |  | ||||||
| 	NodeStateCriterion hasql.NodeStateCriterion |  | ||||||
| } |  | ||||||
|  |  | ||||||
| // ClusterOption apply cluster options to ClusterOptions |  | ||||||
| type ClusterOption func(*ClusterOptions) |  | ||||||
|  |  | ||||||
| // WithClusterNodeChecker pass hasql.NodeChecker to cluster options |  | ||||||
| func WithClusterNodeChecker(c hasql.NodeChecker) ClusterOption { |  | ||||||
| 	return func(o *ClusterOptions) { |  | ||||||
| 		o.NodeChecker = c |  | ||||||
| 	} |  | ||||||
| } |  | ||||||
|  |  | ||||||
| // WithClusterNodePicker pass hasql.NodePicker to cluster options |  | ||||||
| func WithClusterNodePicker(p hasql.NodePicker[Querier]) ClusterOption { |  | ||||||
| 	return func(o *ClusterOptions) { |  | ||||||
| 		o.NodePicker = p |  | ||||||
| 	} |  | ||||||
| } |  | ||||||
|  |  | ||||||
| // WithClusterNodeDiscoverer pass hasql.NodeDiscoverer to cluster options |  | ||||||
| func WithClusterNodeDiscoverer(d hasql.NodeDiscoverer[Querier]) ClusterOption { |  | ||||||
| 	return func(o *ClusterOptions) { |  | ||||||
| 		o.NodeDiscoverer = d |  | ||||||
| 	} |  | ||||||
| } |  | ||||||
|  |  | ||||||
| // WithRetries retry count on other nodes in case of error |  | ||||||
| func WithRetries(n int) ClusterOption { |  | ||||||
| 	return func(o *ClusterOptions) { |  | ||||||
| 		o.Retries = n |  | ||||||
| 	} |  | ||||||
| } |  | ||||||
|  |  | ||||||
| // WithClusterContext pass context.Context to cluster options and used for checks |  | ||||||
| func WithClusterContext(ctx context.Context) ClusterOption { |  | ||||||
| 	return func(o *ClusterOptions) { |  | ||||||
| 		o.Context = ctx |  | ||||||
| 	} |  | ||||||
| } |  | ||||||
|  |  | ||||||
| // WithClusterOptions pass hasql.ClusterOpt |  | ||||||
| func WithClusterOptions(opts ...hasql.ClusterOpt[Querier]) ClusterOption { |  | ||||||
| 	return func(o *ClusterOptions) { |  | ||||||
| 		o.Options = append(o.Options, opts...) |  | ||||||
| 	} |  | ||||||
| } |  | ||||||
|  |  | ||||||
| // WithClusterNodeStateCriterion pass default hasql.NodeStateCriterion |  | ||||||
| func WithClusterNodeStateCriterion(c hasql.NodeStateCriterion) ClusterOption { |  | ||||||
| 	return func(o *ClusterOptions) { |  | ||||||
| 		o.NodeStateCriterion = c |  | ||||||
| 	} |  | ||||||
| } |  | ||||||
|  |  | ||||||
| type ClusterNode struct { |  | ||||||
| 	Name     string |  | ||||||
| 	DB       Querier |  | ||||||
| 	Priority int32 |  | ||||||
| } |  | ||||||
|  |  | ||||||
| // WithClusterNodes create cluster with static NodeDiscoverer |  | ||||||
| func WithClusterNodes(cns ...ClusterNode) ClusterOption { |  | ||||||
| 	return func(o *ClusterOptions) { |  | ||||||
| 		nodes := make([]*hasql.Node[Querier], 0, len(cns)) |  | ||||||
| 		if o.NodePriority == nil { |  | ||||||
| 			o.NodePriority = make(map[string]int32, len(cns)) |  | ||||||
| 		} |  | ||||||
| 		for _, cn := range cns { |  | ||||||
| 			nodes = append(nodes, hasql.NewNode(cn.Name, cn.DB)) |  | ||||||
| 			if cn.Priority == 0 { |  | ||||||
| 				cn.Priority = math.MaxInt32 |  | ||||||
| 			} |  | ||||||
| 			o.NodePriority[cn.Name] = cn.Priority |  | ||||||
| 		} |  | ||||||
| 		o.NodeDiscoverer = hasql.NewStaticNodeDiscoverer(nodes...) |  | ||||||
| 	} |  | ||||||
| } |  | ||||||
|  |  | ||||||
| type nodeStateCriterionKey struct{} |  | ||||||
|  |  | ||||||
| // NodeStateCriterion inject hasql.NodeStateCriterion to context |  | ||||||
| func NodeStateCriterion(ctx context.Context, c hasql.NodeStateCriterion) context.Context { |  | ||||||
| 	return context.WithValue(ctx, nodeStateCriterionKey{}, c) |  | ||||||
| } |  | ||||||
|  |  | ||||||
| func (c *Cluster) getNodeStateCriterion(ctx context.Context) hasql.NodeStateCriterion { |  | ||||||
| 	if v, ok := ctx.Value(nodeStateCriterionKey{}).(hasql.NodeStateCriterion); ok { |  | ||||||
| 		return v |  | ||||||
| 	} |  | ||||||
| 	return c.options.NodeStateCriterion |  | ||||||
| } |  | ||||||
| @@ -1,113 +0,0 @@ | |||||||
| package sql |  | ||||||
|  |  | ||||||
| import ( |  | ||||||
| 	"fmt" |  | ||||||
| 	"math" |  | ||||||
| 	"time" |  | ||||||
|  |  | ||||||
| 	"golang.yandex/hasql/v2" |  | ||||||
| ) |  | ||||||
|  |  | ||||||
| // compile time guard |  | ||||||
| var _ hasql.NodePicker[Querier] = (*CustomPicker[Querier])(nil) |  | ||||||
|  |  | ||||||
| // CustomPickerOptions holds options to pick nodes |  | ||||||
| type CustomPickerOptions struct { |  | ||||||
| 	MaxLag   int |  | ||||||
| 	Priority map[string]int32 |  | ||||||
| 	Retries  int |  | ||||||
| } |  | ||||||
|  |  | ||||||
| // CustomPickerOption func apply option to CustomPickerOptions |  | ||||||
| type CustomPickerOption func(*CustomPickerOptions) |  | ||||||
|  |  | ||||||
| // CustomPickerMaxLag specifies max lag for which node can be used |  | ||||||
| func CustomPickerMaxLag(n int) CustomPickerOption { |  | ||||||
| 	return func(o *CustomPickerOptions) { |  | ||||||
| 		o.MaxLag = n |  | ||||||
| 	} |  | ||||||
| } |  | ||||||
|  |  | ||||||
| // NewCustomPicker creates new node picker |  | ||||||
| func NewCustomPicker[T Querier](opts ...CustomPickerOption) *CustomPicker[Querier] { |  | ||||||
| 	options := CustomPickerOptions{} |  | ||||||
| 	for _, o := range opts { |  | ||||||
| 		o(&options) |  | ||||||
| 	} |  | ||||||
| 	return &CustomPicker[Querier]{opts: options} |  | ||||||
| } |  | ||||||
|  |  | ||||||
| // CustomPicker holds node picker options |  | ||||||
| type CustomPicker[T Querier] struct { |  | ||||||
| 	opts CustomPickerOptions |  | ||||||
| } |  | ||||||
|  |  | ||||||
| // PickNode used to return specific node |  | ||||||
| func (p *CustomPicker[T]) PickNode(cnodes []hasql.CheckedNode[T]) hasql.CheckedNode[T] { |  | ||||||
| 	for _, n := range cnodes { |  | ||||||
| 		fmt.Printf("node %s\n", n.Node.String()) |  | ||||||
| 	} |  | ||||||
| 	return cnodes[0] |  | ||||||
| } |  | ||||||
|  |  | ||||||
| func (p *CustomPicker[T]) getPriority(nodeName string) int32 { |  | ||||||
| 	if prio, ok := p.opts.Priority[nodeName]; ok { |  | ||||||
| 		return prio |  | ||||||
| 	} |  | ||||||
| 	return math.MaxInt32 // Default to lowest priority |  | ||||||
| } |  | ||||||
|  |  | ||||||
| // CompareNodes used to sort nodes |  | ||||||
| func (p *CustomPicker[T]) CompareNodes(a, b hasql.CheckedNode[T]) int { |  | ||||||
| 	// Get replication lag values |  | ||||||
| 	aLag := a.Info.(interface{ ReplicationLag() int }).ReplicationLag() |  | ||||||
| 	bLag := b.Info.(interface{ ReplicationLag() int }).ReplicationLag() |  | ||||||
|  |  | ||||||
| 	// First check that lag lower then MaxLag |  | ||||||
| 	if aLag > p.opts.MaxLag && bLag > p.opts.MaxLag { |  | ||||||
| 		return 0 // both are equal |  | ||||||
| 	} |  | ||||||
|  |  | ||||||
| 	// If one node exceeds MaxLag and the other doesn't, prefer the one that doesn't |  | ||||||
| 	if aLag > p.opts.MaxLag { |  | ||||||
| 		return 1 // b is better |  | ||||||
| 	} |  | ||||||
| 	if bLag > p.opts.MaxLag { |  | ||||||
| 		return -1 // a is better |  | ||||||
| 	} |  | ||||||
|  |  | ||||||
| 	// Get node priorities |  | ||||||
| 	aPrio := p.getPriority(a.Node.String()) |  | ||||||
| 	bPrio := p.getPriority(b.Node.String()) |  | ||||||
|  |  | ||||||
| 	// if both priority equals |  | ||||||
| 	if aPrio == bPrio { |  | ||||||
| 		// First compare by replication lag |  | ||||||
| 		if aLag < bLag { |  | ||||||
| 			return -1 |  | ||||||
| 		} |  | ||||||
| 		if aLag > bLag { |  | ||||||
| 			return 1 |  | ||||||
| 		} |  | ||||||
| 		// If replication lag is equal, compare by latency |  | ||||||
| 		aLatency := a.Info.(interface{ Latency() time.Duration }).Latency() |  | ||||||
| 		bLatency := b.Info.(interface{ Latency() time.Duration }).Latency() |  | ||||||
|  |  | ||||||
| 		if aLatency < bLatency { |  | ||||||
| 			return -1 |  | ||||||
| 		} |  | ||||||
| 		if aLatency > bLatency { |  | ||||||
| 			return 1 |  | ||||||
| 		} |  | ||||||
|  |  | ||||||
| 		// If lag and latency is equal |  | ||||||
| 		return 0 |  | ||||||
| 	} |  | ||||||
|  |  | ||||||
| 	// If priorities are different, prefer the node with lower priority value |  | ||||||
| 	if aPrio < bPrio { |  | ||||||
| 		return -1 |  | ||||||
| 	} |  | ||||||
|  |  | ||||||
| 	return 1 |  | ||||||
| } |  | ||||||
| @@ -3,6 +3,8 @@ package codec | |||||||
|  |  | ||||||
| import ( | import ( | ||||||
| 	"errors" | 	"errors" | ||||||
|  |  | ||||||
|  | 	"gopkg.in/yaml.v3" | ||||||
| ) | ) | ||||||
|  |  | ||||||
| var ( | var ( | ||||||
| @@ -66,10 +68,10 @@ func (m *RawMessage) MarshalYAML() ([]byte, error) { | |||||||
| } | } | ||||||
|  |  | ||||||
| // UnmarshalYAML sets *m to a copy of data. | // UnmarshalYAML sets *m to a copy of data. | ||||||
| func (m *RawMessage) UnmarshalYAML(data []byte) error { | func (m *RawMessage) UnmarshalYAML(n *yaml.Node) error { | ||||||
| 	if m == nil { | 	if m == nil { | ||||||
| 		return errors.New("RawMessage UnmarshalYAML on nil pointer") | 		return errors.New("RawMessage UnmarshalYAML on nil pointer") | ||||||
| 	} | 	} | ||||||
| 	*m = append((*m)[0:0], data...) | 	*m = append((*m)[0:0], []byte(n.Value)...) | ||||||
| 	return nil | 	return nil | ||||||
| } | } | ||||||
|   | |||||||
| @@ -1,5 +1,7 @@ | |||||||
| package codec | package codec | ||||||
|  |  | ||||||
|  | import "gopkg.in/yaml.v3" | ||||||
|  |  | ||||||
| // Frame gives us the ability to define raw data to send over the pipes | // Frame gives us the ability to define raw data to send over the pipes | ||||||
| type Frame struct { | type Frame struct { | ||||||
| 	Data []byte | 	Data []byte | ||||||
| @@ -26,8 +28,8 @@ func (m *Frame) MarshalYAML() ([]byte, error) { | |||||||
| } | } | ||||||
|  |  | ||||||
| // UnmarshalYAML set frame data | // UnmarshalYAML set frame data | ||||||
| func (m *Frame) UnmarshalYAML(data []byte) error { | func (m *Frame) UnmarshalYAML(n *yaml.Node) error { | ||||||
| 	m.Data = append((m.Data)[0:0], data...) | 	m.Data = []byte(n.Value) | ||||||
| 	return nil | 	return nil | ||||||
| } | } | ||||||
|  |  | ||||||
|   | |||||||
							
								
								
									
										9
									
								
								go.mod
									
									
									
									
									
								
							
							
						
						
									
										9
									
								
								go.mod
									
									
									
									
									
								
							| @@ -1,25 +1,24 @@ | |||||||
| module go.unistack.org/micro/v4 | module go.unistack.org/micro/v4 | ||||||
|  |  | ||||||
| go 1.24 | go 1.22.0 | ||||||
|  |  | ||||||
| require ( | require ( | ||||||
| 	dario.cat/mergo v1.0.1 | 	dario.cat/mergo v1.0.1 | ||||||
| 	github.com/DATA-DOG/go-sqlmock v1.5.2 | 	github.com/DATA-DOG/go-sqlmock v1.5.2 | ||||||
| 	github.com/KimMachineGun/automemlimit v0.7.0 | 	github.com/KimMachineGun/automemlimit v0.7.0 | ||||||
| 	github.com/goccy/go-yaml v1.17.1 | 	github.com/ash3in/uuidv8 v1.2.0 | ||||||
| 	github.com/google/uuid v1.6.0 | 	github.com/google/uuid v1.6.0 | ||||||
| 	github.com/matoous/go-nanoid v1.5.1 | 	github.com/matoous/go-nanoid v1.5.1 | ||||||
| 	github.com/patrickmn/go-cache v2.1.0+incompatible | 	github.com/patrickmn/go-cache v2.1.0+incompatible | ||||||
| 	github.com/silas/dag v0.0.0-20220518035006-a7e85ada93c5 | 	github.com/silas/dag v0.0.0-20220518035006-a7e85ada93c5 | ||||||
| 	github.com/spf13/cast v1.7.1 | 	github.com/spf13/cast v1.7.1 | ||||||
| 	github.com/stretchr/testify v1.10.0 |  | ||||||
| 	go.uber.org/atomic v1.11.0 | 	go.uber.org/atomic v1.11.0 | ||||||
| 	go.uber.org/automaxprocs v1.6.0 | 	go.uber.org/automaxprocs v1.6.0 | ||||||
| 	go.unistack.org/micro-proto/v4 v4.1.0 | 	go.unistack.org/micro-proto/v4 v4.1.0 | ||||||
| 	golang.org/x/sync v0.10.0 | 	golang.org/x/sync v0.10.0 | ||||||
| 	golang.yandex/hasql/v2 v2.1.0 |  | ||||||
| 	google.golang.org/grpc v1.69.4 | 	google.golang.org/grpc v1.69.4 | ||||||
| 	google.golang.org/protobuf v1.36.3 | 	google.golang.org/protobuf v1.36.3 | ||||||
|  | 	gopkg.in/yaml.v3 v3.0.1 | ||||||
| ) | ) | ||||||
|  |  | ||||||
| require ( | require ( | ||||||
| @@ -27,9 +26,9 @@ require ( | |||||||
| 	github.com/pbnjay/memory v0.0.0-20210728143218-7b4eea64cf58 // indirect | 	github.com/pbnjay/memory v0.0.0-20210728143218-7b4eea64cf58 // indirect | ||||||
| 	github.com/pmezard/go-difflib v1.0.1-0.20181226105442-5d4384ee4fb2 // indirect | 	github.com/pmezard/go-difflib v1.0.1-0.20181226105442-5d4384ee4fb2 // indirect | ||||||
| 	github.com/rogpeppe/go-internal v1.13.1 // indirect | 	github.com/rogpeppe/go-internal v1.13.1 // indirect | ||||||
|  | 	github.com/stretchr/testify v1.10.0 // indirect | ||||||
| 	golang.org/x/net v0.34.0 // indirect | 	golang.org/x/net v0.34.0 // indirect | ||||||
| 	golang.org/x/sys v0.29.0 // indirect | 	golang.org/x/sys v0.29.0 // indirect | ||||||
| 	google.golang.org/genproto/googleapis/rpc v0.0.0-20241216192217-9240e9c98484 // indirect | 	google.golang.org/genproto/googleapis/rpc v0.0.0-20241216192217-9240e9c98484 // indirect | ||||||
| 	gopkg.in/check.v1 v1.0.0-20201130134442-10cb98267c6c // indirect | 	gopkg.in/check.v1 v1.0.0-20201130134442-10cb98267c6c // indirect | ||||||
| 	gopkg.in/yaml.v3 v3.0.1 // indirect |  | ||||||
| ) | ) | ||||||
|   | |||||||
							
								
								
									
										6
									
								
								go.sum
									
									
									
									
									
								
							
							
						
						
									
										6
									
								
								go.sum
									
									
									
									
									
								
							| @@ -4,12 +4,12 @@ github.com/DATA-DOG/go-sqlmock v1.5.2 h1:OcvFkGmslmlZibjAjaHm3L//6LiuBgolP7Oputl | |||||||
| github.com/DATA-DOG/go-sqlmock v1.5.2/go.mod h1:88MAG/4G7SMwSE3CeA0ZKzrT5CiOU3OJ+JlNzwDqpNU= | github.com/DATA-DOG/go-sqlmock v1.5.2/go.mod h1:88MAG/4G7SMwSE3CeA0ZKzrT5CiOU3OJ+JlNzwDqpNU= | ||||||
| github.com/KimMachineGun/automemlimit v0.7.0 h1:7G06p/dMSf7G8E6oq+f2uOPuVncFyIlDI/pBWK49u88= | github.com/KimMachineGun/automemlimit v0.7.0 h1:7G06p/dMSf7G8E6oq+f2uOPuVncFyIlDI/pBWK49u88= | ||||||
| github.com/KimMachineGun/automemlimit v0.7.0/go.mod h1:QZxpHaGOQoYvFhv/r4u3U0JTC2ZcOwbSr11UZF46UBM= | github.com/KimMachineGun/automemlimit v0.7.0/go.mod h1:QZxpHaGOQoYvFhv/r4u3U0JTC2ZcOwbSr11UZF46UBM= | ||||||
|  | github.com/ash3in/uuidv8 v1.2.0 h1:2oogGdtCPwaVtyvPPGin4TfZLtOGE5F+W++E880G6SI= | ||||||
|  | github.com/ash3in/uuidv8 v1.2.0/go.mod h1:BnU0wJBxnzdEKmVg4xckBkD+VZuecTFTUP3M0dWgyY4= | ||||||
| github.com/davecgh/go-spew v1.1.2-0.20180830191138-d8f796af33cc h1:U9qPSI2PIWSS1VwoXQT9A3Wy9MM3WgvqSxFWenqJduM= | github.com/davecgh/go-spew v1.1.2-0.20180830191138-d8f796af33cc h1:U9qPSI2PIWSS1VwoXQT9A3Wy9MM3WgvqSxFWenqJduM= | ||||||
| github.com/davecgh/go-spew v1.1.2-0.20180830191138-d8f796af33cc/go.mod h1:J7Y8YcW2NihsgmVo/mv3lAwl/skON4iLHjSsI+c5H38= | github.com/davecgh/go-spew v1.1.2-0.20180830191138-d8f796af33cc/go.mod h1:J7Y8YcW2NihsgmVo/mv3lAwl/skON4iLHjSsI+c5H38= | ||||||
| github.com/frankban/quicktest v1.14.6 h1:7Xjx+VpznH+oBnejlPUj8oUpdxnVs4f8XU8WnHkI4W8= | github.com/frankban/quicktest v1.14.6 h1:7Xjx+VpznH+oBnejlPUj8oUpdxnVs4f8XU8WnHkI4W8= | ||||||
| github.com/frankban/quicktest v1.14.6/go.mod h1:4ptaffx2x8+WTWXmUCuVU6aPUX1/Mz7zb5vbUoiM6w0= | github.com/frankban/quicktest v1.14.6/go.mod h1:4ptaffx2x8+WTWXmUCuVU6aPUX1/Mz7zb5vbUoiM6w0= | ||||||
| github.com/goccy/go-yaml v1.17.1 h1:LI34wktB2xEE3ONG/2Ar54+/HJVBriAGJ55PHls4YuY= |  | ||||||
| github.com/goccy/go-yaml v1.17.1/go.mod h1:XBurs7gK8ATbW4ZPGKgcbrY1Br56PdM69F7LkFRi1kA= |  | ||||||
| github.com/golang/protobuf v1.5.4 h1:i7eJL8qZTpSEXOPTxNKhASYpMn+8e5Q6AdndVa1dWek= | github.com/golang/protobuf v1.5.4 h1:i7eJL8qZTpSEXOPTxNKhASYpMn+8e5Q6AdndVa1dWek= | ||||||
| github.com/golang/protobuf v1.5.4/go.mod h1:lnTiLA8Wa4RWRcIUkrtSVa5nRhsEGBg48fD6rSs7xps= | github.com/golang/protobuf v1.5.4/go.mod h1:lnTiLA8Wa4RWRcIUkrtSVa5nRhsEGBg48fD6rSs7xps= | ||||||
| github.com/google/go-cmp v0.6.0 h1:ofyhxvXcZhMsU5ulbFiLKl/XBFqE1GSq7atu8tAmTRI= | github.com/google/go-cmp v0.6.0 h1:ofyhxvXcZhMsU5ulbFiLKl/XBFqE1GSq7atu8tAmTRI= | ||||||
| @@ -56,8 +56,6 @@ golang.org/x/sys v0.29.0 h1:TPYlXGxvx1MGTn2GiZDhnjPA9wZzZeGKHHmKhHYvgaU= | |||||||
| golang.org/x/sys v0.29.0/go.mod h1:/VUhepiaJMQUp4+oa/7Zr1D23ma6VTLIYjOOTFZPUcA= | golang.org/x/sys v0.29.0/go.mod h1:/VUhepiaJMQUp4+oa/7Zr1D23ma6VTLIYjOOTFZPUcA= | ||||||
| golang.org/x/text v0.21.0 h1:zyQAAkrwaneQ066sspRyJaG9VNi/YJ1NfzcGB3hZ/qo= | golang.org/x/text v0.21.0 h1:zyQAAkrwaneQ066sspRyJaG9VNi/YJ1NfzcGB3hZ/qo= | ||||||
| golang.org/x/text v0.21.0/go.mod h1:4IBbMaMmOPCJ8SecivzSH54+73PCFmPWxNTLm+vZkEQ= | golang.org/x/text v0.21.0/go.mod h1:4IBbMaMmOPCJ8SecivzSH54+73PCFmPWxNTLm+vZkEQ= | ||||||
| golang.yandex/hasql/v2 v2.1.0 h1:7CaFFWeHoK5TvA+QvZzlKHlIN5sqNpqM8NSrXskZD/k= |  | ||||||
| golang.yandex/hasql/v2 v2.1.0/go.mod h1:3Au1AxuJDCTXmS117BpbI6e+70kGWeyLR1qJAH6HdtA= |  | ||||||
| google.golang.org/genproto/googleapis/rpc v0.0.0-20241216192217-9240e9c98484 h1:Z7FRVJPSMaHQxD0uXU8WdgFh8PseLM8Q8NzhnpMrBhQ= | google.golang.org/genproto/googleapis/rpc v0.0.0-20241216192217-9240e9c98484 h1:Z7FRVJPSMaHQxD0uXU8WdgFh8PseLM8Q8NzhnpMrBhQ= | ||||||
| google.golang.org/genproto/googleapis/rpc v0.0.0-20241216192217-9240e9c98484/go.mod h1:lcTa1sDdWEIHMWlITnIczmw5w60CF9ffkb8Z+DVmmjA= | google.golang.org/genproto/googleapis/rpc v0.0.0-20241216192217-9240e9c98484/go.mod h1:lcTa1sDdWEIHMWlITnIczmw5w60CF9ffkb8Z+DVmmjA= | ||||||
| google.golang.org/grpc v1.69.4 h1:MF5TftSMkd8GLw/m0KM6V8CMOCY6NZ1NQDPGFgbTt4A= | google.golang.org/grpc v1.69.4 h1:MF5TftSMkd8GLw/m0KM6V8CMOCY6NZ1NQDPGFgbTt4A= | ||||||
|   | |||||||
| @@ -36,8 +36,8 @@ func NewClientCallWrapper(keys ...string) client.CallWrapper { | |||||||
| 					omd = metadata.New(len(imd)) | 					omd = metadata.New(len(imd)) | ||||||
| 				} | 				} | ||||||
| 				for _, k := range keys { | 				for _, k := range keys { | ||||||
| 					if v := imd.Get(k); v != nil { | 					if v, ok := imd.Get(k); ok { | ||||||
| 						omd.Set(k, v...) | 						omd.Add(k, v...) | ||||||
| 					} | 					} | ||||||
| 				} | 				} | ||||||
| 				if !ook { | 				if !ook { | ||||||
| @@ -59,8 +59,8 @@ func (w *wrapper) Call(ctx context.Context, req client.Request, rsp interface{}, | |||||||
| 			omd = metadata.New(len(imd)) | 			omd = metadata.New(len(imd)) | ||||||
| 		} | 		} | ||||||
| 		for _, k := range w.keys { | 		for _, k := range w.keys { | ||||||
| 			if v := imd.Get(k); v != nil { | 			if v, ok := imd.Get(k); ok { | ||||||
| 				omd.Set(k, v...) | 				omd.Add(k, v...) | ||||||
| 			} | 			} | ||||||
| 		} | 		} | ||||||
| 		if !ook { | 		if !ook { | ||||||
| @@ -80,8 +80,8 @@ func (w *wrapper) Stream(ctx context.Context, req client.Request, opts ...client | |||||||
| 			omd = metadata.New(len(imd)) | 			omd = metadata.New(len(imd)) | ||||||
| 		} | 		} | ||||||
| 		for _, k := range w.keys { | 		for _, k := range w.keys { | ||||||
| 			if v := imd.Get(k); v != nil { | 			if v, ok := imd.Get(k); ok { | ||||||
| 				omd.Set(k, v...) | 				omd.Add(k, v...) | ||||||
| 			} | 			} | ||||||
| 		} | 		} | ||||||
| 		if !ook { | 		if !ook { | ||||||
| @@ -103,8 +103,8 @@ func NewServerHandlerWrapper(keys ...string) server.HandlerWrapper { | |||||||
| 					omd = metadata.New(len(imd)) | 					omd = metadata.New(len(imd)) | ||||||
| 				} | 				} | ||||||
| 				for _, k := range keys { | 				for _, k := range keys { | ||||||
| 					if v := imd.Get(k); v != nil { | 					if v, ok := imd.Get(k); ok { | ||||||
| 						omd.Set(k, v...) | 						omd.Add(k, v...) | ||||||
| 					} | 					} | ||||||
| 				} | 				} | ||||||
| 				if !ook { | 				if !ook { | ||||||
|   | |||||||
| @@ -37,9 +37,20 @@ var DefaultMetadataFunc = func(ctx context.Context) (context.Context, error) { | |||||||
| 	} | 	} | ||||||
|  |  | ||||||
| 	if xid == "" { | 	if xid == "" { | ||||||
| 		xid = imd.GetJoined(DefaultMetadataKey) | 		var ids []string | ||||||
| 		if xid == "" { | 		if ids, iok = imd.Get(DefaultMetadataKey); iok { | ||||||
| 			xid = omd.GetJoined(DefaultMetadataKey) | 			for i := range ids { | ||||||
|  | 				if ids[i] != "" { | ||||||
|  | 					xid = ids[i] | ||||||
|  | 				} | ||||||
|  | 			} | ||||||
|  | 		} | ||||||
|  | 		if ids, ook = omd.Get(DefaultMetadataKey); ook { | ||||||
|  | 			for i := range ids { | ||||||
|  | 				if ids[i] != "" { | ||||||
|  | 					xid = ids[i] | ||||||
|  | 				} | ||||||
|  | 			} | ||||||
| 		} | 		} | ||||||
| 	} | 	} | ||||||
|  |  | ||||||
|   | |||||||
| @@ -2,7 +2,6 @@ package requestid | |||||||
|  |  | ||||||
| import ( | import ( | ||||||
| 	"context" | 	"context" | ||||||
| 	"slices" |  | ||||||
| 	"testing" | 	"testing" | ||||||
|  |  | ||||||
| 	"go.unistack.org/micro/v4/metadata" | 	"go.unistack.org/micro/v4/metadata" | ||||||
| @@ -25,10 +24,10 @@ func TestDefaultMetadataFunc(t *testing.T) { | |||||||
| 		t.Fatalf("md missing in outgoing context") | 		t.Fatalf("md missing in outgoing context") | ||||||
| 	} | 	} | ||||||
|  |  | ||||||
| 	iv := imd.Get(DefaultMetadataKey) | 	_, iok := imd.Get(DefaultMetadataKey) | ||||||
| 	ov := omd.Get(DefaultMetadataKey) | 	_, ook := omd.Get(DefaultMetadataKey) | ||||||
|  |  | ||||||
| 	if !slices.Equal(iv, ov) { | 	if !iok || !ook { | ||||||
| 		t.Fatalf("missing metadata key value %v != %v", iv, ov) | 		t.Fatalf("missing metadata key value") | ||||||
| 	} | 	} | ||||||
| } | } | ||||||
|   | |||||||
| @@ -1,51 +0,0 @@ | |||||||
| package sql |  | ||||||
|  |  | ||||||
| import ( |  | ||||||
| 	"database/sql/driver" |  | ||||||
| 	"errors" |  | ||||||
| 	"fmt" |  | ||||||
| 	"runtime" |  | ||||||
| ) |  | ||||||
|  |  | ||||||
| //go:generate sh -c "go run gen.go > wrap_gen.go" |  | ||||||
|  |  | ||||||
| // namedValueToValue converts driver arguments of NamedValue format to Value format. Implemented in the same way as in |  | ||||||
| // database/sql ctxutil.go. |  | ||||||
| func namedValueToValue(named []driver.NamedValue) ([]driver.Value, error) { |  | ||||||
| 	dargs := make([]driver.Value, len(named)) |  | ||||||
| 	for n, param := range named { |  | ||||||
| 		if len(param.Name) > 0 { |  | ||||||
| 			return nil, errors.New("sql: driver does not support the use of Named Parameters") |  | ||||||
| 		} |  | ||||||
| 		dargs[n] = param.Value |  | ||||||
| 	} |  | ||||||
| 	return dargs, nil |  | ||||||
| } |  | ||||||
|  |  | ||||||
| // namedValueToLabels convert driver arguments to interface{} slice |  | ||||||
| func namedValueToLabels(named []driver.NamedValue) []interface{} { |  | ||||||
| 	largs := make([]interface{}, 0, len(named)*2) |  | ||||||
| 	var name string |  | ||||||
| 	for _, param := range named { |  | ||||||
| 		if param.Name != "" { |  | ||||||
| 			name = param.Name |  | ||||||
| 		} else { |  | ||||||
| 			name = fmt.Sprintf("$%d", param.Ordinal) |  | ||||||
| 		} |  | ||||||
| 		largs = append(largs, fmt.Sprintf("%s=%v", name, param.Value)) |  | ||||||
| 	} |  | ||||||
| 	return largs |  | ||||||
| } |  | ||||||
|  |  | ||||||
| // getCallerName get the name of the function A where A() -> B() -> GetFunctionCallerName() |  | ||||||
| func getCallerName() string { |  | ||||||
| 	pc, _, _, ok := runtime.Caller(3) |  | ||||||
| 	details := runtime.FuncForPC(pc) |  | ||||||
| 	var callerName string |  | ||||||
| 	if ok && details != nil { |  | ||||||
| 		callerName = details.Name() |  | ||||||
| 	} else { |  | ||||||
| 		callerName = labelUnknown |  | ||||||
| 	} |  | ||||||
| 	return callerName |  | ||||||
| } |  | ||||||
| @@ -1,467 +0,0 @@ | |||||||
| package sql |  | ||||||
|  |  | ||||||
| import ( |  | ||||||
| 	"context" |  | ||||||
| 	"database/sql/driver" |  | ||||||
| 	"fmt" |  | ||||||
| 	"time" |  | ||||||
|  |  | ||||||
| 	"go.unistack.org/micro/v4/hooks/requestid" |  | ||||||
| 	"go.unistack.org/micro/v4/tracer" |  | ||||||
| ) |  | ||||||
|  |  | ||||||
| var ( |  | ||||||
| 	_ driver.Conn               = (*wrapperConn)(nil) |  | ||||||
| 	_ driver.ConnBeginTx        = (*wrapperConn)(nil) |  | ||||||
| 	_ driver.ConnPrepareContext = (*wrapperConn)(nil) |  | ||||||
| 	_ driver.Pinger             = (*wrapperConn)(nil) |  | ||||||
| 	_ driver.Validator          = (*wrapperConn)(nil) |  | ||||||
| 	_ driver.Queryer            = (*wrapperConn)(nil) // nolint:staticcheck |  | ||||||
| 	_ driver.QueryerContext     = (*wrapperConn)(nil) |  | ||||||
| 	_ driver.Execer             = (*wrapperConn)(nil) // nolint:staticcheck |  | ||||||
| 	_ driver.ExecerContext      = (*wrapperConn)(nil) |  | ||||||
| 	//	_ driver.Connector |  | ||||||
| 	//	_ driver.Driver |  | ||||||
| 	//	_ driver.DriverContext |  | ||||||
| ) |  | ||||||
|  |  | ||||||
| // wrapperConn defines a wrapper for driver.Conn |  | ||||||
| type wrapperConn struct { |  | ||||||
| 	d     *wrapperDriver |  | ||||||
| 	dname string |  | ||||||
| 	conn  driver.Conn |  | ||||||
| 	opts  Options |  | ||||||
| 	ctx   context.Context |  | ||||||
| 	//span  tracer.Span |  | ||||||
| } |  | ||||||
|  |  | ||||||
| // Close implements driver.Conn Close |  | ||||||
| func (w *wrapperConn) Close() error { |  | ||||||
| 	var ctx context.Context |  | ||||||
| 	if w.ctx != nil { |  | ||||||
| 		ctx = w.ctx |  | ||||||
| 	} else { |  | ||||||
| 		ctx = context.Background() |  | ||||||
| 	} |  | ||||||
| 	_ = ctx |  | ||||||
| 	labels := []string{labelMethod, "Close"} |  | ||||||
| 	ts := time.Now() |  | ||||||
| 	err := w.conn.Close() |  | ||||||
| 	td := time.Since(ts) |  | ||||||
| 	te := td.Seconds() |  | ||||||
| 	if err != nil { |  | ||||||
| 		w.opts.Meter.Counter(meterRequestTotal, append(labels, labelStatus, labelFailure)...).Inc() |  | ||||||
| 	} else { |  | ||||||
| 		w.opts.Meter.Counter(meterRequestTotal, append(labels, labelStatus, labelSuccess)...).Inc() |  | ||||||
| 	} |  | ||||||
| 	w.opts.Meter.Summary(meterRequestLatencyMicroseconds, labels...).Update(te) |  | ||||||
| 	w.opts.Meter.Histogram(meterRequestDurationSeconds, labels...).Update(te) |  | ||||||
| 	/* |  | ||||||
| 		if w.opts.LoggerEnabled && w.opts.Logger.V(w.opts.LoggerLevel) { |  | ||||||
| 			w.opts.Logger.Log(ctx, w.opts.LoggerLevel, w.opts.LoggerObserver(ctx, "Close", getCallerName(), td, err)...) |  | ||||||
| 		} |  | ||||||
| 	*/ |  | ||||||
| 	return err |  | ||||||
| } |  | ||||||
|  |  | ||||||
| // Begin implements driver.Conn Begin |  | ||||||
| func (w *wrapperConn) Begin() (driver.Tx, error) { |  | ||||||
| 	var ctx context.Context |  | ||||||
| 	if w.ctx != nil { |  | ||||||
| 		ctx = w.ctx |  | ||||||
| 	} else { |  | ||||||
| 		ctx = context.Background() |  | ||||||
| 	} |  | ||||||
|  |  | ||||||
| 	labels := []string{labelMethod, "Begin"} |  | ||||||
| 	ts := time.Now() |  | ||||||
| 	tx, err := w.conn.Begin() // nolint:staticcheck |  | ||||||
| 	td := time.Since(ts) |  | ||||||
| 	te := td.Seconds() |  | ||||||
| 	if err != nil { |  | ||||||
| 		w.opts.Meter.Counter(meterRequestTotal, append(labels, labelStatus, labelFailure)...).Inc() |  | ||||||
| 		w.opts.Meter.Summary(meterRequestLatencyMicroseconds, labels...).Update(te) |  | ||||||
| 		w.opts.Meter.Histogram(meterRequestDurationSeconds, labels...).Update(te) |  | ||||||
| 		/* |  | ||||||
| 			if w.opts.LoggerEnabled && w.opts.Logger.V(w.opts.LoggerLevel) { |  | ||||||
| 				w.opts.Logger.Log(ctx, w.opts.LoggerLevel, w.opts.LoggerObserver(ctx, "Begin", getCallerName(), td, err)...) |  | ||||||
| 			} |  | ||||||
| 		*/ |  | ||||||
| 		return nil, err |  | ||||||
| 	} |  | ||||||
| 	w.opts.Meter.Counter(meterRequestTotal, append(labels, labelStatus, labelSuccess)...).Inc() |  | ||||||
| 	w.opts.Meter.Summary(meterRequestLatencyMicroseconds, labels...).Update(te) |  | ||||||
| 	w.opts.Meter.Histogram(meterRequestDurationSeconds, labels...).Update(te) |  | ||||||
| 	/* |  | ||||||
| 		if w.opts.LoggerEnabled && w.opts.Logger.V(w.opts.LoggerLevel) { |  | ||||||
| 			w.opts.Logger.Log(ctx, w.opts.LoggerLevel, w.opts.LoggerObserver(ctx, "Begin", getCallerName(), td, err)...) |  | ||||||
| 		} |  | ||||||
| 	*/ |  | ||||||
| 	return &wrapperTx{tx: tx, opts: w.opts, ctx: ctx}, nil |  | ||||||
| } |  | ||||||
|  |  | ||||||
| // BeginTx implements driver.ConnBeginTx BeginTx |  | ||||||
| func (w *wrapperConn) BeginTx(ctx context.Context, opts driver.TxOptions) (driver.Tx, error) { |  | ||||||
| 	name := getQueryName(ctx) |  | ||||||
| 	nctx, span := w.opts.Tracer.Start(ctx, "sdk.database", tracer.WithSpanKind(tracer.SpanKindClient)) |  | ||||||
| 	span.AddLabels("db.method", "BeginTx") |  | ||||||
| 	span.AddLabels("db.statement", name) |  | ||||||
| 	if id, ok := ctx.Value(requestid.XRequestIDKey{}).(string); ok { |  | ||||||
| 		span.AddLabels("x-request-id", id) |  | ||||||
| 	} |  | ||||||
| 	labels := []string{labelMethod, "BeginTx", labelQuery, name} |  | ||||||
|  |  | ||||||
| 	connBeginTx, ok := w.conn.(driver.ConnBeginTx) |  | ||||||
| 	if !ok { |  | ||||||
| 		return w.Begin() |  | ||||||
| 	} |  | ||||||
|  |  | ||||||
| 	ts := time.Now() |  | ||||||
| 	tx, err := connBeginTx.BeginTx(nctx, opts) |  | ||||||
| 	td := time.Since(ts) |  | ||||||
| 	te := td.Seconds() |  | ||||||
| 	if err != nil { |  | ||||||
| 		w.opts.Meter.Counter(meterRequestTotal, append(labels, labelStatus, labelFailure)...).Inc() |  | ||||||
| 		w.opts.Meter.Summary(meterRequestLatencyMicroseconds, labels...).Update(te) |  | ||||||
| 		w.opts.Meter.Histogram(meterRequestDurationSeconds, labels...).Update(te) |  | ||||||
| 		span.SetStatus(tracer.SpanStatusError, err.Error()) |  | ||||||
| 		/* |  | ||||||
| 			if w.opts.LoggerEnabled && w.opts.Logger.V(w.opts.LoggerLevel) { |  | ||||||
| 				w.opts.Logger.Log(ctx, w.opts.LoggerLevel, w.opts.LoggerObserver(ctx, "BeginTx", getCallerName(), td, err)...) |  | ||||||
| 			} |  | ||||||
| 		*/ |  | ||||||
| 		return nil, err |  | ||||||
| 	} |  | ||||||
| 	w.opts.Meter.Counter(meterRequestTotal, append(labels, labelStatus, labelSuccess)...).Inc() |  | ||||||
| 	/* |  | ||||||
| 		if w.opts.LoggerEnabled && w.opts.Logger.V(w.opts.LoggerLevel) { |  | ||||||
| 			w.opts.Logger.Log(ctx, w.opts.LoggerLevel, w.opts.LoggerObserver(ctx, "BeginTx", getCallerName(), td, err)...) |  | ||||||
| 		} |  | ||||||
| 	*/ |  | ||||||
| 	return &wrapperTx{tx: tx, opts: w.opts, ctx: ctx, span: span}, nil |  | ||||||
| } |  | ||||||
|  |  | ||||||
| // Prepare implements driver.Conn Prepare |  | ||||||
| func (w *wrapperConn) Prepare(query string) (driver.Stmt, error) { |  | ||||||
| 	var ctx context.Context |  | ||||||
| 	if w.ctx != nil { |  | ||||||
| 		ctx = w.ctx |  | ||||||
| 	} else { |  | ||||||
| 		ctx = context.Background() |  | ||||||
| 	} |  | ||||||
| 	_ = ctx |  | ||||||
| 	labels := []string{labelMethod, "Prepare", labelQuery, getCallerName()} |  | ||||||
| 	ts := time.Now() |  | ||||||
| 	stmt, err := w.conn.Prepare(query) |  | ||||||
| 	td := time.Since(ts) |  | ||||||
| 	te := td.Seconds() |  | ||||||
| 	if err != nil { |  | ||||||
| 		w.opts.Meter.Counter(meterRequestTotal, append(labels, labelStatus, labelFailure)...).Inc() |  | ||||||
| 		w.opts.Meter.Summary(meterRequestLatencyMicroseconds, labels...).Update(te) |  | ||||||
| 		w.opts.Meter.Histogram(meterRequestDurationSeconds, labels...).Update(te) |  | ||||||
| 		/* |  | ||||||
| 			if w.opts.LoggerEnabled && w.opts.Logger.V(w.opts.LoggerLevel) { |  | ||||||
| 				w.opts.Logger.Log(ctx, w.opts.LoggerLevel, w.opts.LoggerObserver(ctx, "Prepare", getCallerName(), td, err)...) |  | ||||||
| 			} |  | ||||||
| 		*/ |  | ||||||
| 		return nil, err |  | ||||||
| 	} |  | ||||||
| 	w.opts.Meter.Counter(meterRequestTotal, append(labels, labelStatus, labelSuccess)...).Inc() |  | ||||||
| 	w.opts.Meter.Summary(meterRequestLatencyMicroseconds, labels...).Update(te) |  | ||||||
| 	w.opts.Meter.Histogram(meterRequestDurationSeconds, labels...).Update(te) |  | ||||||
| 	/* |  | ||||||
| 		if w.opts.LoggerEnabled && w.opts.Logger.V(w.opts.LoggerLevel) { |  | ||||||
| 			w.opts.Logger.Log(ctx, w.opts.LoggerLevel, w.opts.LoggerObserver(ctx, "Prepare", getCallerName(), td, err)...) |  | ||||||
| 		} |  | ||||||
| 	*/ |  | ||||||
| 	return wrapStmt(stmt, query, w.opts), nil |  | ||||||
| } |  | ||||||
|  |  | ||||||
| // PrepareContext implements driver.ConnPrepareContext PrepareContext |  | ||||||
| func (w *wrapperConn) PrepareContext(ctx context.Context, query string) (driver.Stmt, error) { |  | ||||||
| 	var nctx context.Context |  | ||||||
| 	var span tracer.Span |  | ||||||
|  |  | ||||||
| 	name := getQueryName(ctx) |  | ||||||
| 	if w.ctx != nil { |  | ||||||
| 		nctx, span = w.opts.Tracer.Start(w.ctx, "sdk.database", tracer.WithSpanKind(tracer.SpanKindClient)) |  | ||||||
| 	} else { |  | ||||||
| 		nctx, span = w.opts.Tracer.Start(ctx, "sdk.database", tracer.WithSpanKind(tracer.SpanKindClient)) |  | ||||||
| 	} |  | ||||||
| 	span.AddLabels("db.method", "PrepareContext") |  | ||||||
| 	span.AddLabels("db.statement", name) |  | ||||||
| 	if id, ok := ctx.Value(requestid.XRequestIDKey{}).(string); ok { |  | ||||||
| 		span.AddLabels("x-request-id", id) |  | ||||||
| 	} |  | ||||||
| 	labels := []string{labelMethod, "PrepareContext", labelQuery, name} |  | ||||||
| 	conn, ok := w.conn.(driver.ConnPrepareContext) |  | ||||||
| 	if !ok { |  | ||||||
| 		return w.Prepare(query) |  | ||||||
| 	} |  | ||||||
|  |  | ||||||
| 	ts := time.Now() |  | ||||||
| 	stmt, err := conn.PrepareContext(nctx, query) |  | ||||||
| 	td := time.Since(ts) |  | ||||||
| 	te := td.Seconds() |  | ||||||
| 	if err != nil { |  | ||||||
| 		w.opts.Meter.Counter(meterRequestTotal, append(labels, labelStatus, labelFailure)...).Inc() |  | ||||||
| 		w.opts.Meter.Summary(meterRequestLatencyMicroseconds, labels...).Update(te) |  | ||||||
| 		w.opts.Meter.Histogram(meterRequestDurationSeconds, labels...).Update(te) |  | ||||||
| 		span.SetStatus(tracer.SpanStatusError, err.Error()) |  | ||||||
| 		/* |  | ||||||
| 			if w.opts.LoggerEnabled && w.opts.Logger.V(w.opts.LoggerLevel) { |  | ||||||
| 				w.opts.Logger.Log(ctx, w.opts.LoggerLevel, w.opts.LoggerObserver(ctx, "PrepareContext", getCallerName(), td, err)...) |  | ||||||
| 			} |  | ||||||
| 		*/ |  | ||||||
| 		return nil, err |  | ||||||
| 	} |  | ||||||
| 	w.opts.Meter.Counter(meterRequestTotal, append(labels, labelStatus, labelSuccess)...).Inc() |  | ||||||
| 	w.opts.Meter.Summary(meterRequestLatencyMicroseconds, labels...).Update(te) |  | ||||||
| 	w.opts.Meter.Histogram(meterRequestDurationSeconds, labels...).Update(te) |  | ||||||
| 	/* |  | ||||||
| 		if w.opts.LoggerEnabled && w.opts.Logger.V(w.opts.LoggerLevel) { |  | ||||||
| 			w.opts.Logger.Log(ctx, w.opts.LoggerLevel, w.opts.LoggerObserver(ctx, "PrepareContext", getCallerName(), td, err)...) |  | ||||||
| 		} |  | ||||||
| 	*/ |  | ||||||
| 	return wrapStmt(stmt, query, w.opts), nil |  | ||||||
| } |  | ||||||
|  |  | ||||||
| // Exec implements driver.Execer Exec |  | ||||||
| func (w *wrapperConn) Exec(query string, args []driver.Value) (driver.Result, error) { |  | ||||||
| 	var ctx context.Context |  | ||||||
| 	if w.ctx != nil { |  | ||||||
| 		ctx = w.ctx |  | ||||||
| 	} else { |  | ||||||
| 		ctx = context.Background() |  | ||||||
| 	} |  | ||||||
| 	_ = ctx |  | ||||||
| 	labels := []string{labelMethod, "Exec", labelQuery, getCallerName()} |  | ||||||
|  |  | ||||||
| 	// nolint:staticcheck |  | ||||||
| 	conn, ok := w.conn.(driver.Execer) |  | ||||||
| 	if !ok { |  | ||||||
| 		return nil, driver.ErrSkip |  | ||||||
| 	} |  | ||||||
|  |  | ||||||
| 	ts := time.Now() |  | ||||||
| 	res, err := conn.Exec(query, args) |  | ||||||
| 	td := time.Since(ts) |  | ||||||
| 	te := td.Seconds() |  | ||||||
| 	if err != nil { |  | ||||||
| 		w.opts.Meter.Counter(meterRequestTotal, append(labels, labelStatus, labelFailure)...).Inc() |  | ||||||
| 	} else { |  | ||||||
| 		w.opts.Meter.Counter(meterRequestTotal, append(labels, labelStatus, labelSuccess)...).Inc() |  | ||||||
| 	} |  | ||||||
| 	w.opts.Meter.Summary(meterRequestLatencyMicroseconds, labels...).Update(te) |  | ||||||
| 	w.opts.Meter.Histogram(meterRequestDurationSeconds, labels...).Update(te) |  | ||||||
| 	/* |  | ||||||
| 		if w.opts.LoggerEnabled && w.opts.Logger.V(w.opts.LoggerLevel) { |  | ||||||
| 			w.opts.Logger.Log(ctx, w.opts.LoggerLevel, w.opts.LoggerObserver(ctx, "Exec", getCallerName(), td, err)...) |  | ||||||
| 		} |  | ||||||
| 	*/ |  | ||||||
| 	return res, err |  | ||||||
| } |  | ||||||
|  |  | ||||||
| // Exec implements driver.StmtExecContext ExecContext |  | ||||||
| func (w *wrapperConn) ExecContext(ctx context.Context, query string, args []driver.NamedValue) (driver.Result, error) { |  | ||||||
| 	var nctx context.Context |  | ||||||
| 	var span tracer.Span |  | ||||||
|  |  | ||||||
| 	name := getQueryName(ctx) |  | ||||||
| 	if w.ctx != nil { |  | ||||||
| 		nctx, span = w.opts.Tracer.Start(w.ctx, "sdk.database", tracer.WithSpanKind(tracer.SpanKindClient)) |  | ||||||
| 	} else { |  | ||||||
| 		nctx, span = w.opts.Tracer.Start(ctx, "sdk.database", tracer.WithSpanKind(tracer.SpanKindClient)) |  | ||||||
| 	} |  | ||||||
| 	span.AddLabels("db.method", "ExecContext") |  | ||||||
| 	span.AddLabels("db.statement", name) |  | ||||||
| 	if id, ok := ctx.Value(requestid.XRequestIDKey{}).(string); ok { |  | ||||||
| 		span.AddLabels("x-request-id", id) |  | ||||||
| 	} |  | ||||||
| 	defer span.Finish() |  | ||||||
| 	if len(args) > 0 { |  | ||||||
| 		span.AddLabels("db.args", fmt.Sprintf("%v", namedValueToLabels(args))) |  | ||||||
| 	} |  | ||||||
| 	labels := []string{labelMethod, "ExecContext", labelQuery, name} |  | ||||||
|  |  | ||||||
| 	conn, ok := w.conn.(driver.ExecerContext) |  | ||||||
| 	if !ok { |  | ||||||
| 		// nolint:staticcheck |  | ||||||
| 		return nil, driver.ErrSkip |  | ||||||
| 	} |  | ||||||
|  |  | ||||||
| 	ts := time.Now() |  | ||||||
| 	res, err := conn.ExecContext(nctx, query, args) |  | ||||||
| 	td := time.Since(ts) |  | ||||||
| 	te := td.Seconds() |  | ||||||
| 	if err != nil { |  | ||||||
| 		w.opts.Meter.Counter(meterRequestTotal, append(labels, labelStatus, labelFailure)...).Inc() |  | ||||||
| 		span.SetStatus(tracer.SpanStatusError, err.Error()) |  | ||||||
| 	} else { |  | ||||||
| 		w.opts.Meter.Counter(meterRequestTotal, append(labels, labelStatus, labelSuccess)...).Inc() |  | ||||||
| 	} |  | ||||||
| 	w.opts.Meter.Counter(meterRequestTotal, append(labels, labelStatus, labelSuccess)...).Inc() |  | ||||||
| 	w.opts.Meter.Summary(meterRequestLatencyMicroseconds, labels...).Update(te) |  | ||||||
| 	w.opts.Meter.Histogram(meterRequestDurationSeconds, labels...).Update(te) |  | ||||||
| 	/* |  | ||||||
| 		if w.opts.LoggerEnabled && w.opts.Logger.V(w.opts.LoggerLevel) { |  | ||||||
| 			w.opts.Logger.Log(ctx, w.opts.LoggerLevel, w.opts.LoggerObserver(ctx, "ExecContext", getCallerName(), td, err)...) |  | ||||||
| 		} |  | ||||||
| 	*/ |  | ||||||
| 	return res, err |  | ||||||
| } |  | ||||||
|  |  | ||||||
| // Ping implements driver.Pinger Ping |  | ||||||
| func (w *wrapperConn) Ping(ctx context.Context) error { |  | ||||||
| 	conn, ok := w.conn.(driver.Pinger) |  | ||||||
|  |  | ||||||
| 	if !ok { |  | ||||||
| 		// fallback path to check db alive |  | ||||||
| 		pc, err := w.d.Open(w.dname) |  | ||||||
| 		if err != nil { |  | ||||||
| 			return err |  | ||||||
| 		} |  | ||||||
| 		return pc.Close() |  | ||||||
| 	} |  | ||||||
|  |  | ||||||
| 	var nctx context.Context //nolint:gosimple |  | ||||||
| 	nctx = ctx |  | ||||||
| 	/* |  | ||||||
| 		var span tracer.Span |  | ||||||
| 		if w.ctx != nil { |  | ||||||
| 			nctx, span = w.opts.Tracer.Start(w.ctx, "sdk.database", tracer.WithSpanKind(tracer.SpanKindClient)) |  | ||||||
| 		} else { |  | ||||||
| 			nctx, span = w.opts.Tracer.Start(ctx, "sdk.database", tracer.WithSpanKind(tracer.SpanKindClient)) |  | ||||||
| 		} |  | ||||||
| 		span.AddLabels("db.method", "Ping") |  | ||||||
| 		defer span.Finish() |  | ||||||
| 	*/ |  | ||||||
| 	labels := []string{labelMethod, "Ping"} |  | ||||||
| 	ts := time.Now() |  | ||||||
| 	err := conn.Ping(nctx) |  | ||||||
| 	td := time.Since(ts) |  | ||||||
| 	te := td.Seconds() |  | ||||||
| 	if err != nil { |  | ||||||
| 		w.opts.Meter.Counter(meterRequestTotal, append(labels, labelStatus, labelFailure)...).Inc() |  | ||||||
| 		// span.SetStatus(tracer.SpanStatusError, err.Error()) |  | ||||||
| 		/* |  | ||||||
| 			if w.opts.LoggerEnabled && w.opts.Logger.V(w.opts.LoggerLevel) { |  | ||||||
| 				w.opts.Logger.Log(ctx, w.opts.LoggerLevel, w.opts.LoggerObserver(ctx, "Ping", getCallerName(), td, err)...) |  | ||||||
| 			} |  | ||||||
| 		*/ |  | ||||||
| 		return err |  | ||||||
| 	} else { |  | ||||||
| 		w.opts.Meter.Counter(meterRequestTotal, append(labels, labelStatus, labelSuccess)...).Inc() |  | ||||||
| 	} |  | ||||||
| 	w.opts.Meter.Summary(meterRequestLatencyMicroseconds, labels...).Update(te) |  | ||||||
| 	w.opts.Meter.Histogram(meterRequestDurationSeconds, labels...).Update(te) |  | ||||||
|  |  | ||||||
| 	return nil |  | ||||||
| } |  | ||||||
|  |  | ||||||
| // Query implements driver.Queryer Query |  | ||||||
| func (w *wrapperConn) Query(query string, args []driver.Value) (driver.Rows, error) { |  | ||||||
| 	var ctx context.Context |  | ||||||
| 	if w.ctx != nil { |  | ||||||
| 		ctx = w.ctx |  | ||||||
| 	} else { |  | ||||||
| 		ctx = context.Background() |  | ||||||
| 	} |  | ||||||
| 	_ = ctx |  | ||||||
| 	// nolint:staticcheck |  | ||||||
| 	conn, ok := w.conn.(driver.Queryer) |  | ||||||
| 	if !ok { |  | ||||||
| 		return nil, driver.ErrSkip |  | ||||||
| 	} |  | ||||||
|  |  | ||||||
| 	labels := []string{labelMethod, "Query", labelQuery, getCallerName()} |  | ||||||
| 	ts := time.Now() |  | ||||||
| 	rows, err := conn.Query(query, args) |  | ||||||
| 	td := time.Since(ts) |  | ||||||
| 	te := td.Seconds() |  | ||||||
| 	if err != nil { |  | ||||||
| 		w.opts.Meter.Counter(meterRequestTotal, append(labels, labelStatus, labelFailure)...).Inc() |  | ||||||
| 	} else { |  | ||||||
| 		w.opts.Meter.Counter(meterRequestTotal, append(labels, labelStatus, labelSuccess)...).Inc() |  | ||||||
| 	} |  | ||||||
| 	w.opts.Meter.Summary(meterRequestLatencyMicroseconds, labels...).Update(te) |  | ||||||
| 	w.opts.Meter.Histogram(meterRequestDurationSeconds, labels...).Update(te) |  | ||||||
| 	/* |  | ||||||
| 		if w.opts.LoggerEnabled && w.opts.Logger.V(w.opts.LoggerLevel) { |  | ||||||
| 			w.opts.Logger.Log(ctx, w.opts.LoggerLevel, w.opts.LoggerObserver(ctx, "Query", getCallerName(), td, err)...) |  | ||||||
| 		} |  | ||||||
| 	*/ |  | ||||||
| 	return rows, err |  | ||||||
| } |  | ||||||
|  |  | ||||||
| // QueryContext implements Driver.QueryerContext QueryContext |  | ||||||
| func (w *wrapperConn) QueryContext(ctx context.Context, query string, args []driver.NamedValue) (driver.Rows, error) { |  | ||||||
| 	var nctx context.Context |  | ||||||
| 	var span tracer.Span |  | ||||||
|  |  | ||||||
| 	name := getQueryName(ctx) |  | ||||||
| 	if w.ctx != nil { |  | ||||||
| 		nctx, span = w.opts.Tracer.Start(w.ctx, "sdk.database", tracer.WithSpanKind(tracer.SpanKindClient)) |  | ||||||
| 	} else { |  | ||||||
| 		nctx, span = w.opts.Tracer.Start(ctx, "sdk.database", tracer.WithSpanKind(tracer.SpanKindClient)) |  | ||||||
| 	} |  | ||||||
| 	span.AddLabels("db.method", "QueryContext") |  | ||||||
| 	span.AddLabels("db.statement", name) |  | ||||||
| 	if id, ok := ctx.Value(requestid.XRequestIDKey{}).(string); ok { |  | ||||||
| 		span.AddLabels("x-request-id", id) |  | ||||||
| 	} |  | ||||||
| 	defer span.Finish() |  | ||||||
| 	if len(args) > 0 { |  | ||||||
| 		span.AddLabels("db.args", fmt.Sprintf("%v", namedValueToLabels(args))) |  | ||||||
| 	} |  | ||||||
| 	labels := []string{labelMethod, "QueryContext", labelQuery, name} |  | ||||||
| 	conn, ok := w.conn.(driver.QueryerContext) |  | ||||||
| 	if !ok { |  | ||||||
| 		return nil, driver.ErrSkip |  | ||||||
| 	} |  | ||||||
|  |  | ||||||
| 	ts := time.Now() |  | ||||||
| 	rows, err := conn.QueryContext(nctx, query, args) |  | ||||||
| 	td := time.Since(ts) |  | ||||||
| 	te := td.Seconds() |  | ||||||
| 	if err != nil { |  | ||||||
| 		w.opts.Meter.Counter(meterRequestTotal, append(labels, labelStatus, labelFailure)...).Inc() |  | ||||||
| 		span.SetStatus(tracer.SpanStatusError, err.Error()) |  | ||||||
| 	} else { |  | ||||||
| 		w.opts.Meter.Counter(meterRequestTotal, append(labels, labelStatus, labelSuccess)...).Inc() |  | ||||||
| 	} |  | ||||||
| 	w.opts.Meter.Summary(meterRequestLatencyMicroseconds, labels...).Update(te) |  | ||||||
| 	w.opts.Meter.Histogram(meterRequestDurationSeconds, labels...).Update(te) |  | ||||||
| 	/* |  | ||||||
| 		if w.opts.LoggerEnabled && w.opts.Logger.V(w.opts.LoggerLevel) { |  | ||||||
| 			w.opts.Logger.Log(ctx, w.opts.LoggerLevel, w.opts.LoggerObserver(ctx, "QueryContext", getCallerName(), td, err)...) |  | ||||||
| 		} |  | ||||||
| 	*/ |  | ||||||
| 	return rows, err |  | ||||||
| } |  | ||||||
|  |  | ||||||
| // CheckNamedValue implements driver.NamedValueChecker |  | ||||||
| func (w *wrapperConn) CheckNamedValue(v *driver.NamedValue) error { |  | ||||||
| 	s, ok := w.conn.(driver.NamedValueChecker) |  | ||||||
| 	if !ok { |  | ||||||
| 		return driver.ErrSkip |  | ||||||
| 	} |  | ||||||
| 	return s.CheckNamedValue(v) |  | ||||||
| } |  | ||||||
|  |  | ||||||
| // IsValid implements driver.Validator |  | ||||||
| func (w *wrapperConn) IsValid() bool { |  | ||||||
| 	v, ok := w.conn.(driver.Validator) |  | ||||||
| 	if !ok { |  | ||||||
| 		return w.conn != nil |  | ||||||
| 	} |  | ||||||
| 	return v.IsValid() |  | ||||||
| } |  | ||||||
|  |  | ||||||
| func (w *wrapperConn) ResetSession(ctx context.Context) error { |  | ||||||
| 	s, ok := w.conn.(driver.SessionResetter) |  | ||||||
| 	if !ok { |  | ||||||
| 		return driver.ErrSkip |  | ||||||
| 	} |  | ||||||
| 	return s.ResetSession(ctx) |  | ||||||
| } |  | ||||||
| @@ -1,94 +0,0 @@ | |||||||
| package sql |  | ||||||
|  |  | ||||||
| import ( |  | ||||||
| 	"context" |  | ||||||
| 	"database/sql/driver" |  | ||||||
| 	"time" |  | ||||||
| ) |  | ||||||
|  |  | ||||||
| var ( |  | ||||||
| // _ driver.DriverContext = (*wrapperDriver)(nil) |  | ||||||
| // _ driver.Connector     = (*wrapperDriver)(nil) |  | ||||||
| ) |  | ||||||
|  |  | ||||||
| /* |  | ||||||
| type conn interface { |  | ||||||
| 	driver.Pinger |  | ||||||
| 	driver.Execer |  | ||||||
| 	driver.ExecerContext |  | ||||||
| 	driver.Queryer |  | ||||||
| 	driver.QueryerContext |  | ||||||
| 	driver.Conn |  | ||||||
| 	driver.ConnPrepareContext |  | ||||||
| 	driver.ConnBeginTx |  | ||||||
| } |  | ||||||
| */ |  | ||||||
|  |  | ||||||
| // wrapperDriver defines a wrapper for driver.Driver |  | ||||||
| type wrapperDriver struct { |  | ||||||
| 	driver driver.Driver |  | ||||||
| 	opts   Options |  | ||||||
| 	ctx    context.Context |  | ||||||
| } |  | ||||||
|  |  | ||||||
| // NewWrapper creates and returns a new SQL driver with passed capabilities |  | ||||||
| func NewWrapper(d driver.Driver, opts ...Option) driver.Driver { |  | ||||||
| 	return &wrapperDriver{driver: d, opts: NewOptions(opts...), ctx: context.Background()} |  | ||||||
| } |  | ||||||
|  |  | ||||||
| type wrappedConnector struct { |  | ||||||
| 	connector driver.Connector |  | ||||||
| //	name      string |  | ||||||
| 	opts      Options |  | ||||||
| 	ctx       context.Context |  | ||||||
| } |  | ||||||
|  |  | ||||||
| func NewWrapperConnector(c driver.Connector, opts ...Option) driver.Connector { |  | ||||||
| 	return &wrappedConnector{connector: c, opts: NewOptions(opts...), ctx: context.Background()} |  | ||||||
| } |  | ||||||
|  |  | ||||||
| // Connect implements driver.Driver Connect |  | ||||||
| func (w *wrappedConnector) Connect(ctx context.Context) (driver.Conn, error) { |  | ||||||
| 	return w.connector.Connect(ctx) |  | ||||||
| } |  | ||||||
|  |  | ||||||
| // Driver implements driver.Driver Driver |  | ||||||
| func (w *wrappedConnector) Driver() driver.Driver { |  | ||||||
| 	return w.connector.Driver() |  | ||||||
| } |  | ||||||
|  |  | ||||||
| /* |  | ||||||
| // Connect implements driver.Driver OpenConnector |  | ||||||
| func (w *wrapperDriver) OpenConnector(name string) (driver.Conn, error) { |  | ||||||
| 	return &wrapperConnector{driver: w.driver, name: name, opts: w.opts}, nil |  | ||||||
| } |  | ||||||
| */ |  | ||||||
|  |  | ||||||
| // Open implements driver.Driver Open |  | ||||||
| func (w *wrapperDriver) Open(name string) (driver.Conn, error) { |  | ||||||
| 	// ctx, cancel := context.WithTimeout(context.Background(), 60*time.Second) // Ensure eventual timeout |  | ||||||
| 	// defer cancel() |  | ||||||
|  |  | ||||||
| 	/* |  | ||||||
| 		connector, err := w.OpenConnector(name) |  | ||||||
| 		if err != nil { |  | ||||||
| 			return nil, err |  | ||||||
| 		} |  | ||||||
| 		return connector.Connect(ctx) |  | ||||||
| 	*/ |  | ||||||
|  |  | ||||||
| 	ts := time.Now() |  | ||||||
| 	c, err := w.driver.Open(name) |  | ||||||
| 	td := time.Since(ts) |  | ||||||
| 	/* |  | ||||||
| 		if w.opts.LoggerEnabled { |  | ||||||
| 			w.opts.Logger.Log(w.ctx, w.opts.LoggerLevel, w.opts.LoggerObserver(w.ctx, "Open", getCallerName(), td, err)...) |  | ||||||
| 		} |  | ||||||
| 	*/ |  | ||||||
| 	_ = td |  | ||||||
| 	if err != nil { |  | ||||||
| 		return nil, err |  | ||||||
| 	} |  | ||||||
|  |  | ||||||
| 	return wrapConn(c, w.opts), nil |  | ||||||
| } |  | ||||||
							
								
								
									
										167
									
								
								hooks/sql/gen.go
									
									
									
									
									
								
							
							
						
						
									
										167
									
								
								hooks/sql/gen.go
									
									
									
									
									
								
							| @@ -1,167 +0,0 @@ | |||||||
| //go:build ignore |  | ||||||
|  |  | ||||||
| package main |  | ||||||
|  |  | ||||||
| import ( |  | ||||||
| 	"bytes" |  | ||||||
| 	"crypto/md5" |  | ||||||
| 	"fmt" |  | ||||||
| 	"io" |  | ||||||
| 	"sort" |  | ||||||
| 	"strings" |  | ||||||
| ) |  | ||||||
|  |  | ||||||
| var connIfaces = []string{ |  | ||||||
| 	"driver.ConnBeginTx", |  | ||||||
| 	"driver.ConnPrepareContext", |  | ||||||
| 	"driver.Execer", |  | ||||||
| 	"driver.ExecerContext", |  | ||||||
| 	"driver.NamedValueChecker", |  | ||||||
| 	"driver.Pinger", |  | ||||||
| 	"driver.Queryer", |  | ||||||
| 	"driver.QueryerContext", |  | ||||||
| 	"driver.SessionResetter", |  | ||||||
| 	"driver.Validator", |  | ||||||
| } |  | ||||||
|  |  | ||||||
| var stmtIfaces = []string{ |  | ||||||
| 	"driver.StmtExecContext", |  | ||||||
| 	"driver.StmtQueryContext", |  | ||||||
| 	"driver.ColumnConverter", |  | ||||||
| 	"driver.NamedValueChecker", |  | ||||||
| } |  | ||||||
|  |  | ||||||
| func getHash(s []string) string { |  | ||||||
| 	h := md5.New() |  | ||||||
| 	io.WriteString(h, strings.Join(s, "|")) |  | ||||||
| 	return fmt.Sprintf("%x", h.Sum(nil)) |  | ||||||
| } |  | ||||||
|  |  | ||||||
| func main() { |  | ||||||
| 	comboConn := all(connIfaces) |  | ||||||
|  |  | ||||||
| 	sort.Slice(comboConn, func(i, j int) bool { |  | ||||||
| 		return len(comboConn[i]) < len(comboConn[j]) |  | ||||||
| 	}) |  | ||||||
|  |  | ||||||
| 	comboStmt := all(stmtIfaces) |  | ||||||
|  |  | ||||||
| 	sort.Slice(comboStmt, func(i, j int) bool { |  | ||||||
| 		return len(comboStmt[i]) < len(comboStmt[j]) |  | ||||||
| 	}) |  | ||||||
|  |  | ||||||
| 	b := bytes.NewBuffer(nil) |  | ||||||
| 	b.WriteString("// Code generated. DO NOT EDIT.\n\n") |  | ||||||
| 	b.WriteString("package sql\n\n") |  | ||||||
| 	b.WriteString(`import "database/sql/driver"`) |  | ||||||
| 	b.WriteString("\n\n") |  | ||||||
|  |  | ||||||
| 	b.WriteString("func wrapConn(dc driver.Conn, opts Options) driver.Conn {\n") |  | ||||||
| 	b.WriteString("\tc := &wrapperConn{conn: dc, opts: opts}\n") |  | ||||||
|  |  | ||||||
| 	for idx := len(comboConn) - 1; idx >= 0; idx-- { |  | ||||||
| 		ifaces := comboConn[idx] |  | ||||||
| 		n := len(ifaces) |  | ||||||
| 		if n == 0 { |  | ||||||
| 			continue |  | ||||||
| 		} |  | ||||||
| 		h := getHash(ifaces) |  | ||||||
| 		b.WriteString(fmt.Sprintf("\tif _, ok := dc.(wrapConn%04d_%s); ok {\n", n, h)) |  | ||||||
| 		b.WriteString("\treturn struct {\n") |  | ||||||
| 		b.WriteString("\t\tdriver.Conn\n") |  | ||||||
| 		b.WriteString(fmt.Sprintf("\t\t\t%s", strings.Join(ifaces, "\n\t\t\t"))) |  | ||||||
| 		b.WriteString("\t\t\n}{") |  | ||||||
| 		for idx := range ifaces { |  | ||||||
| 			if idx > 0 { |  | ||||||
| 				b.WriteString(", ") |  | ||||||
| 				b.WriteString("c") |  | ||||||
| 			} else if idx == 0 { |  | ||||||
| 				b.WriteString("c") |  | ||||||
| 			} else { |  | ||||||
| 				b.WriteString("c") |  | ||||||
| 			} |  | ||||||
| 		} |  | ||||||
| 		b.WriteString(", c}\n") |  | ||||||
| 		b.WriteString("}\n\n") |  | ||||||
| 	} |  | ||||||
| 	b.WriteString("return c\n") |  | ||||||
| 	b.WriteString("}\n") |  | ||||||
|  |  | ||||||
| 	for idx := len(comboConn) - 1; idx >= 0; idx-- { |  | ||||||
| 		ifaces := comboConn[idx] |  | ||||||
| 		n := len(ifaces) |  | ||||||
| 		if n == 0 { |  | ||||||
| 			continue |  | ||||||
| 		} |  | ||||||
| 		h := getHash(ifaces) |  | ||||||
| 		b.WriteString(fmt.Sprintf("// %s\n", strings.Join(ifaces, "|"))) |  | ||||||
| 		b.WriteString(fmt.Sprintf("type wrapConn%04d_%s interface {\n", n, h)) |  | ||||||
| 		for _, iface := range ifaces { |  | ||||||
| 			b.WriteString(fmt.Sprintf("\t%s\n", iface)) |  | ||||||
| 		} |  | ||||||
| 		b.WriteString("}\n\n") |  | ||||||
| 	} |  | ||||||
|  |  | ||||||
| 	b.WriteString("func wrapStmt(stmt driver.Stmt, query string, opts Options) driver.Stmt {\n") |  | ||||||
| 	b.WriteString("\tc := &wrapperStmt{stmt: stmt, query: query, opts: opts}\n") |  | ||||||
|  |  | ||||||
| 	for idx := len(comboStmt) - 1; idx >= 0; idx-- { |  | ||||||
| 		ifaces := comboStmt[idx] |  | ||||||
| 		n := len(ifaces) |  | ||||||
| 		if n == 0 { |  | ||||||
| 			continue |  | ||||||
| 		} |  | ||||||
| 		h := getHash(ifaces) |  | ||||||
| 		b.WriteString(fmt.Sprintf("\tif _, ok := stmt.(wrapStmt%04d_%s); ok {\n", n, h)) |  | ||||||
| 		b.WriteString("\treturn struct {\n") |  | ||||||
| 		b.WriteString("\t\tdriver.Stmt\n") |  | ||||||
| 		b.WriteString(fmt.Sprintf("\t\t\t%s", strings.Join(ifaces, "\n\t\t\t"))) |  | ||||||
| 		b.WriteString("\t\t\n}{") |  | ||||||
| 		for idx := range ifaces { |  | ||||||
| 			if idx > 0 { |  | ||||||
| 				b.WriteString(", ") |  | ||||||
| 				b.WriteString("c") |  | ||||||
| 			} else if idx == 0 { |  | ||||||
| 				b.WriteString("c") |  | ||||||
| 			} else { |  | ||||||
| 				b.WriteString("c") |  | ||||||
| 			} |  | ||||||
| 		} |  | ||||||
| 		b.WriteString(", c}\n") |  | ||||||
| 		b.WriteString("}\n\n") |  | ||||||
| 	} |  | ||||||
| 	b.WriteString("return c\n") |  | ||||||
| 	b.WriteString("}\n") |  | ||||||
|  |  | ||||||
| 	for idx := len(comboStmt) - 1; idx >= 0; idx-- { |  | ||||||
| 		ifaces := comboStmt[idx] |  | ||||||
| 		n := len(ifaces) |  | ||||||
| 		if n == 0 { |  | ||||||
| 			continue |  | ||||||
| 		} |  | ||||||
| 		h := getHash(ifaces) |  | ||||||
| 		b.WriteString(fmt.Sprintf("// %s\n", strings.Join(ifaces, "|"))) |  | ||||||
| 		b.WriteString(fmt.Sprintf("type wrapStmt%04d_%s interface {\n", n, h)) |  | ||||||
| 		for _, iface := range ifaces { |  | ||||||
| 			b.WriteString(fmt.Sprintf("\t%s\n", iface)) |  | ||||||
| 		} |  | ||||||
| 		b.WriteString("}\n\n") |  | ||||||
| 	} |  | ||||||
|  |  | ||||||
| 	fmt.Printf("%s\n", b.String()) |  | ||||||
| } |  | ||||||
|  |  | ||||||
| // all returns all combinations for a given string array. |  | ||||||
| func all[T any](set []T) (subsets [][]T) { |  | ||||||
| 	length := uint(len(set)) |  | ||||||
| 	for subsetBits := 1; subsetBits < (1 << length); subsetBits++ { |  | ||||||
| 		var subset []T |  | ||||||
| 		for object := uint(0); object < length; object++ { |  | ||||||
| 			if (subsetBits>>object)&1 == 1 { |  | ||||||
| 				subset = append(subset, set[object]) |  | ||||||
| 			} |  | ||||||
| 		} |  | ||||||
| 		subsets = append(subsets, subset) |  | ||||||
| 	} |  | ||||||
| 	return subsets |  | ||||||
| } |  | ||||||
| @@ -1,172 +0,0 @@ | |||||||
| package sql |  | ||||||
|  |  | ||||||
| import ( |  | ||||||
| 	"context" |  | ||||||
| 	"fmt" |  | ||||||
| 	"time" |  | ||||||
|  |  | ||||||
| 	"go.unistack.org/micro/v4/logger" |  | ||||||
| 	"go.unistack.org/micro/v4/meter" |  | ||||||
| 	"go.unistack.org/micro/v4/tracer" |  | ||||||
| ) |  | ||||||
|  |  | ||||||
| var ( |  | ||||||
| 	// DefaultMeterStatsInterval holds default stats interval |  | ||||||
| 	DefaultMeterStatsInterval = 5 * time.Second |  | ||||||
| 	// DefaultLoggerObserver used to prepare labels for logger |  | ||||||
| 	DefaultLoggerObserver = func(ctx context.Context, method string, query string, td time.Duration, err error) []interface{} { |  | ||||||
| 		labels := []interface{}{"db.method", method, "took", fmt.Sprintf("%v", td)} |  | ||||||
| 		if err != nil { |  | ||||||
| 			labels = append(labels, "error", err.Error()) |  | ||||||
| 		} |  | ||||||
| 		if query != labelUnknown { |  | ||||||
| 			labels = append(labels, "query", query) |  | ||||||
| 		} |  | ||||||
| 		return labels |  | ||||||
| 	} |  | ||||||
| ) |  | ||||||
|  |  | ||||||
| var ( |  | ||||||
| 	MaxOpenConnections = "micro_sql_max_open_conn" |  | ||||||
| 	OpenConnections    = "micro_sql_open_conn" |  | ||||||
| 	InuseConnections   = "micro_sql_inuse_conn" |  | ||||||
| 	IdleConnections    = "micro_sql_idle_conn" |  | ||||||
| 	WaitConnections    = "micro_sql_waited_conn" |  | ||||||
| 	BlockedSeconds     = "micro_sql_blocked_seconds" |  | ||||||
| 	MaxIdleClosed      = "micro_sql_max_idle_closed" |  | ||||||
| 	MaxIdletimeClosed  = "micro_sql_closed_max_idle" |  | ||||||
| 	MaxLifetimeClosed  = "micro_sql_closed_max_lifetime" |  | ||||||
|  |  | ||||||
| 	meterRequestTotal               = "micro_sql_request_total" |  | ||||||
| 	meterRequestLatencyMicroseconds = "micro_sql_latency_microseconds" |  | ||||||
| 	meterRequestDurationSeconds     = "micro_sql_request_duration_seconds" |  | ||||||
|  |  | ||||||
| 	labelUnknown  = "unknown" |  | ||||||
| 	labelQuery    = "db_statement" |  | ||||||
| 	labelMethod   = "db_method" |  | ||||||
| 	labelStatus   = "status" |  | ||||||
| 	labelSuccess  = "success" |  | ||||||
| 	labelFailure  = "failure" |  | ||||||
| 	labelHost     = "db_host" |  | ||||||
| 	labelDatabase = "db_name" |  | ||||||
| ) |  | ||||||
|  |  | ||||||
| // Options struct holds wrapper options |  | ||||||
| type Options struct { |  | ||||||
| 	Logger             logger.Logger |  | ||||||
| 	Meter              meter.Meter |  | ||||||
| 	Tracer             tracer.Tracer |  | ||||||
| 	DatabaseHost       string |  | ||||||
| 	DatabaseName       string |  | ||||||
| 	MeterStatsInterval time.Duration |  | ||||||
| 	LoggerLevel        logger.Level |  | ||||||
| 	LoggerEnabled      bool |  | ||||||
| 	LoggerObserver     func(ctx context.Context, method string, name string, td time.Duration, err error) []interface{} |  | ||||||
| } |  | ||||||
|  |  | ||||||
| // Option func signature |  | ||||||
| type Option func(*Options) |  | ||||||
|  |  | ||||||
| // NewOptions create new Options struct from provided option slice |  | ||||||
| func NewOptions(opts ...Option) Options { |  | ||||||
| 	options := Options{ |  | ||||||
| 		Logger:             logger.DefaultLogger, |  | ||||||
| 		Meter:              meter.DefaultMeter, |  | ||||||
| 		Tracer:             tracer.DefaultTracer, |  | ||||||
| 		MeterStatsInterval: DefaultMeterStatsInterval, |  | ||||||
| 		LoggerLevel:        logger.ErrorLevel, |  | ||||||
| 		LoggerObserver:     DefaultLoggerObserver, |  | ||||||
| 	} |  | ||||||
| 	for _, o := range opts { |  | ||||||
| 		o(&options) |  | ||||||
| 	} |  | ||||||
|  |  | ||||||
| 	options.Meter = options.Meter.Clone( |  | ||||||
| 		meter.Labels( |  | ||||||
| 			labelHost, options.DatabaseHost, |  | ||||||
| 			labelDatabase, options.DatabaseName, |  | ||||||
| 		), |  | ||||||
| 	) |  | ||||||
|  |  | ||||||
| 	options.Logger = options.Logger.Clone(logger.WithAddCallerSkipCount(1)) |  | ||||||
|  |  | ||||||
| 	return options |  | ||||||
| } |  | ||||||
|  |  | ||||||
| // MetricInterval specifies stats interval for *sql.DB |  | ||||||
| func MetricInterval(td time.Duration) Option { |  | ||||||
| 	return func(o *Options) { |  | ||||||
| 		o.MeterStatsInterval = td |  | ||||||
| 	} |  | ||||||
| } |  | ||||||
|  |  | ||||||
| func DatabaseHost(host string) Option { |  | ||||||
| 	return func(o *Options) { |  | ||||||
| 		o.DatabaseHost = host |  | ||||||
| 	} |  | ||||||
| } |  | ||||||
|  |  | ||||||
| func DatabaseName(name string) Option { |  | ||||||
| 	return func(o *Options) { |  | ||||||
| 		o.DatabaseName = name |  | ||||||
| 	} |  | ||||||
| } |  | ||||||
|  |  | ||||||
| // Meter passes meter.Meter to wrapper |  | ||||||
| func Meter(m meter.Meter) Option { |  | ||||||
| 	return func(o *Options) { |  | ||||||
| 		o.Meter = m |  | ||||||
| 	} |  | ||||||
| } |  | ||||||
|  |  | ||||||
| // Logger passes logger.Logger to wrapper |  | ||||||
| func Logger(l logger.Logger) Option { |  | ||||||
| 	return func(o *Options) { |  | ||||||
| 		o.Logger = l |  | ||||||
| 	} |  | ||||||
| } |  | ||||||
|  |  | ||||||
| // LoggerEnabled enable sql logging |  | ||||||
| func LoggerEnabled(b bool) Option { |  | ||||||
| 	return func(o *Options) { |  | ||||||
| 		o.LoggerEnabled = b |  | ||||||
| 	} |  | ||||||
| } |  | ||||||
|  |  | ||||||
| // LoggerLevel passes logger.Level option |  | ||||||
| func LoggerLevel(lvl logger.Level) Option { |  | ||||||
| 	return func(o *Options) { |  | ||||||
| 		o.LoggerLevel = lvl |  | ||||||
| 	} |  | ||||||
| } |  | ||||||
|  |  | ||||||
| // LoggerObserver passes observer to fill logger fields |  | ||||||
| func LoggerObserver(obs func(context.Context, string, string, time.Duration, error) []interface{}) Option { |  | ||||||
| 	return func(o *Options) { |  | ||||||
| 		o.LoggerObserver = obs |  | ||||||
| 	} |  | ||||||
| } |  | ||||||
|  |  | ||||||
| // Tracer passes tracer.Tracer to wrapper |  | ||||||
| func Tracer(t tracer.Tracer) Option { |  | ||||||
| 	return func(o *Options) { |  | ||||||
| 		o.Tracer = t |  | ||||||
| 	} |  | ||||||
| } |  | ||||||
|  |  | ||||||
| type queryNameKey struct{} |  | ||||||
|  |  | ||||||
| // QueryName passes query name to wrapper func |  | ||||||
| func QueryName(ctx context.Context, name string) context.Context { |  | ||||||
| 	if ctx == nil { |  | ||||||
| 		ctx = context.Background() |  | ||||||
| 	} |  | ||||||
| 	return context.WithValue(ctx, queryNameKey{}, name) |  | ||||||
| } |  | ||||||
|  |  | ||||||
| func getQueryName(ctx context.Context) string { |  | ||||||
| 	if v, ok := ctx.Value(queryNameKey{}).(string); ok && v != labelUnknown { |  | ||||||
| 		return v |  | ||||||
| 	} |  | ||||||
| 	return getCallerName() |  | ||||||
| } |  | ||||||
| @@ -1,95 +0,0 @@ | |||||||
| package sql |  | ||||||
|  |  | ||||||
| import ( |  | ||||||
| 	"context" |  | ||||||
| 	"database/sql" |  | ||||||
| 	"sync" |  | ||||||
| 	"time" |  | ||||||
| ) |  | ||||||
|  |  | ||||||
| type Statser interface { |  | ||||||
| 	Stats() sql.DBStats |  | ||||||
| } |  | ||||||
|  |  | ||||||
| func NewStatsMeter(ctx context.Context, db Statser, opts ...Option) { |  | ||||||
| 	if db == nil { |  | ||||||
| 		return |  | ||||||
| 	} |  | ||||||
|  |  | ||||||
| 	options := NewOptions(opts...) |  | ||||||
|  |  | ||||||
| 	var ( |  | ||||||
| 		statsMu                                                     sync.Mutex |  | ||||||
| 		lastUpdated                                                 time.Time |  | ||||||
| 		maxOpenConnections, openConnections, inUse, idle, waitCount float64 |  | ||||||
| 		maxIdleClosed, maxIdleTimeClosed, maxLifetimeClosed         float64 |  | ||||||
| 		waitDuration                                                float64 |  | ||||||
| 	) |  | ||||||
|  |  | ||||||
| 	updateFn := func() { |  | ||||||
| 		statsMu.Lock() |  | ||||||
| 		defer statsMu.Unlock() |  | ||||||
|  |  | ||||||
| 		if time.Since(lastUpdated) < options.MeterStatsInterval { |  | ||||||
| 			return |  | ||||||
| 		} |  | ||||||
|  |  | ||||||
| 		stats := db.Stats() |  | ||||||
| 		maxOpenConnections = float64(stats.MaxOpenConnections) |  | ||||||
| 		openConnections = float64(stats.OpenConnections) |  | ||||||
| 		inUse = float64(stats.InUse) |  | ||||||
| 		idle = float64(stats.Idle) |  | ||||||
| 		waitCount = float64(stats.WaitCount) |  | ||||||
| 		maxIdleClosed = float64(stats.MaxIdleClosed) |  | ||||||
| 		maxIdleTimeClosed = float64(stats.MaxIdleTimeClosed) |  | ||||||
| 		maxLifetimeClosed = float64(stats.MaxLifetimeClosed) |  | ||||||
| 		waitDuration = float64(stats.WaitDuration.Seconds()) |  | ||||||
|  |  | ||||||
| 		lastUpdated = time.Now() |  | ||||||
| 	} |  | ||||||
|  |  | ||||||
| 	options.Meter.Gauge(MaxOpenConnections, func() float64 { |  | ||||||
| 		updateFn() |  | ||||||
| 		return maxOpenConnections |  | ||||||
| 	}) |  | ||||||
|  |  | ||||||
| 	options.Meter.Gauge(OpenConnections, func() float64 { |  | ||||||
| 		updateFn() |  | ||||||
| 		return openConnections |  | ||||||
| 	}) |  | ||||||
|  |  | ||||||
| 	options.Meter.Gauge(InuseConnections, func() float64 { |  | ||||||
| 		updateFn() |  | ||||||
| 		return inUse |  | ||||||
| 	}) |  | ||||||
|  |  | ||||||
| 	options.Meter.Gauge(IdleConnections, func() float64 { |  | ||||||
| 		updateFn() |  | ||||||
| 		return idle |  | ||||||
| 	}) |  | ||||||
|  |  | ||||||
| 	options.Meter.Gauge(WaitConnections, func() float64 { |  | ||||||
| 		updateFn() |  | ||||||
| 		return waitCount |  | ||||||
| 	}) |  | ||||||
|  |  | ||||||
| 	options.Meter.Gauge(BlockedSeconds, func() float64 { |  | ||||||
| 		updateFn() |  | ||||||
| 		return waitDuration |  | ||||||
| 	}) |  | ||||||
|  |  | ||||||
| 	options.Meter.Gauge(MaxIdleClosed, func() float64 { |  | ||||||
| 		updateFn() |  | ||||||
| 		return maxIdleClosed |  | ||||||
| 	}) |  | ||||||
|  |  | ||||||
| 	options.Meter.Gauge(MaxIdletimeClosed, func() float64 { |  | ||||||
| 		updateFn() |  | ||||||
| 		return maxIdleTimeClosed |  | ||||||
| 	}) |  | ||||||
|  |  | ||||||
| 	options.Meter.Gauge(MaxLifetimeClosed, func() float64 { |  | ||||||
| 		updateFn() |  | ||||||
| 		return maxLifetimeClosed |  | ||||||
| 	}) |  | ||||||
| } |  | ||||||
| @@ -1,287 +0,0 @@ | |||||||
| package sql |  | ||||||
|  |  | ||||||
| import ( |  | ||||||
| 	"context" |  | ||||||
| 	"database/sql/driver" |  | ||||||
| 	"fmt" |  | ||||||
| 	"time" |  | ||||||
|  |  | ||||||
| 	requestid "go.unistack.org/micro/v4/hooks/requestid" |  | ||||||
| 	"go.unistack.org/micro/v4/tracer" |  | ||||||
| ) |  | ||||||
|  |  | ||||||
| var ( |  | ||||||
| 	_ driver.Stmt              = (*wrapperStmt)(nil) |  | ||||||
| 	_ driver.StmtQueryContext  = (*wrapperStmt)(nil) |  | ||||||
| 	_ driver.StmtExecContext   = (*wrapperStmt)(nil) |  | ||||||
| 	_ driver.NamedValueChecker = (*wrapperStmt)(nil) |  | ||||||
| ) |  | ||||||
|  |  | ||||||
| // wrapperStmt defines a wrapper for driver.Stmt |  | ||||||
| type wrapperStmt struct { |  | ||||||
| 	stmt  driver.Stmt |  | ||||||
| 	opts  Options |  | ||||||
| 	query string |  | ||||||
| 	ctx   context.Context |  | ||||||
| } |  | ||||||
|  |  | ||||||
| // Close implements driver.Stmt Close |  | ||||||
| func (w *wrapperStmt) Close() error { |  | ||||||
| 	var ctx context.Context |  | ||||||
| 	if w.ctx != nil { |  | ||||||
| 		ctx = w.ctx |  | ||||||
| 	} else { |  | ||||||
| 		ctx = context.Background() |  | ||||||
| 	} |  | ||||||
| 	_ = ctx |  | ||||||
| 	labels := []string{labelMethod, "Close"} |  | ||||||
| 	ts := time.Now() |  | ||||||
| 	err := w.stmt.Close() |  | ||||||
| 	td := time.Since(ts) |  | ||||||
| 	te := td.Seconds() |  | ||||||
| 	if err != nil { |  | ||||||
| 		w.opts.Meter.Counter(meterRequestTotal, append(labels, labelStatus, labelFailure)...).Inc() |  | ||||||
| 	} else { |  | ||||||
| 		w.opts.Meter.Counter(meterRequestTotal, append(labels, labelStatus, labelSuccess)...).Inc() |  | ||||||
| 	} |  | ||||||
| 	w.opts.Meter.Summary(meterRequestLatencyMicroseconds, labels...).Update(te) |  | ||||||
| 	w.opts.Meter.Histogram(meterRequestDurationSeconds, labels...).Update(te) |  | ||||||
| 	/* |  | ||||||
| 		if w.opts.LoggerEnabled && w.opts.Logger.V(w.opts.LoggerLevel) { |  | ||||||
| 			w.opts.Logger.Log(ctx, w.opts.LoggerLevel, w.opts.LoggerObserver(ctx, "Close", getCallerName(), td, err)...) |  | ||||||
| 		} |  | ||||||
| 	*/ |  | ||||||
| 	return err |  | ||||||
| } |  | ||||||
|  |  | ||||||
| // NumInput implements driver.Stmt NumInput |  | ||||||
| func (w *wrapperStmt) NumInput() int { |  | ||||||
| 	return w.stmt.NumInput() |  | ||||||
| } |  | ||||||
|  |  | ||||||
| // CheckNamedValue implements driver.NamedValueChecker |  | ||||||
| func (w *wrapperStmt) CheckNamedValue(v *driver.NamedValue) error { |  | ||||||
| 	s, ok := w.stmt.(driver.NamedValueChecker) |  | ||||||
| 	if !ok { |  | ||||||
| 		return driver.ErrSkip |  | ||||||
| 	} |  | ||||||
| 	return s.CheckNamedValue(v) |  | ||||||
| } |  | ||||||
|  |  | ||||||
| // Exec implements driver.Stmt Exec |  | ||||||
| func (w *wrapperStmt) Exec(args []driver.Value) (driver.Result, error) { |  | ||||||
| 	var ctx context.Context |  | ||||||
| 	if w.ctx != nil { |  | ||||||
| 		ctx = w.ctx |  | ||||||
| 	} else { |  | ||||||
| 		ctx = context.Background() |  | ||||||
| 	} |  | ||||||
| 	_ = ctx |  | ||||||
| 	labels := []string{labelMethod, "Exec"} |  | ||||||
| 	ts := time.Now() |  | ||||||
| 	res, err := w.stmt.Exec(args) // nolint:staticcheck |  | ||||||
| 	td := time.Since(ts) |  | ||||||
| 	te := td.Seconds() |  | ||||||
| 	if err != nil { |  | ||||||
| 		w.opts.Meter.Counter(meterRequestTotal, append(labels, labelStatus, labelFailure)...).Inc() |  | ||||||
| 	} else { |  | ||||||
| 		w.opts.Meter.Counter(meterRequestTotal, append(labels, labelStatus, labelSuccess)...).Inc() |  | ||||||
| 	} |  | ||||||
| 	w.opts.Meter.Summary(meterRequestLatencyMicroseconds, labels...).Update(te) |  | ||||||
| 	w.opts.Meter.Histogram(meterRequestDurationSeconds, labels...).Update(te) |  | ||||||
| 	/* |  | ||||||
| 		if w.opts.LoggerEnabled && w.opts.Logger.V(w.opts.LoggerLevel) { |  | ||||||
| 			w.opts.Logger.Log(ctx, w.opts.LoggerLevel, w.opts.LoggerObserver(ctx, "Exec", getCallerName(), td, err)...) |  | ||||||
| 		} |  | ||||||
| 	*/ |  | ||||||
| 	return res, err |  | ||||||
| } |  | ||||||
|  |  | ||||||
| // Query implements driver.Stmt Query |  | ||||||
| func (w *wrapperStmt) Query(args []driver.Value) (driver.Rows, error) { |  | ||||||
| 	var ctx context.Context |  | ||||||
| 	if w.ctx != nil { |  | ||||||
| 		ctx = w.ctx |  | ||||||
| 	} else { |  | ||||||
| 		ctx = context.Background() |  | ||||||
| 	} |  | ||||||
| 	_ = ctx |  | ||||||
| 	labels := []string{labelMethod, "Query"} |  | ||||||
| 	ts := time.Now() |  | ||||||
| 	rows, err := w.stmt.Query(args) // nolint:staticcheck |  | ||||||
| 	td := time.Since(ts) |  | ||||||
| 	te := td.Seconds() |  | ||||||
| 	if err != nil { |  | ||||||
| 		w.opts.Meter.Counter(meterRequestTotal, append(labels, labelStatus, labelFailure)...).Inc() |  | ||||||
| 	} else { |  | ||||||
| 		w.opts.Meter.Counter(meterRequestTotal, append(labels, labelStatus, labelSuccess)...).Inc() |  | ||||||
| 	} |  | ||||||
| 	w.opts.Meter.Summary(meterRequestLatencyMicroseconds, labels...).Update(te) |  | ||||||
| 	w.opts.Meter.Histogram(meterRequestDurationSeconds, labels...).Update(te) |  | ||||||
| 	/* |  | ||||||
| 		if w.opts.LoggerEnabled && w.opts.Logger.V(w.opts.LoggerLevel) { |  | ||||||
| 			w.opts.Logger.Log(ctx, w.opts.LoggerLevel, w.opts.LoggerObserver(ctx, "Query", getCallerName(), td, err)...) |  | ||||||
| 		} |  | ||||||
| 	*/ |  | ||||||
| 	return rows, err |  | ||||||
| } |  | ||||||
|  |  | ||||||
| // ColumnConverter implements driver.ColumnConverter |  | ||||||
| func (w *wrapperStmt) ColumnConverter(idx int) driver.ValueConverter { |  | ||||||
| 	s, ok := w.stmt.(driver.ColumnConverter) // nolint:staticcheck |  | ||||||
| 	if !ok { |  | ||||||
| 		return nil |  | ||||||
| 	} |  | ||||||
| 	return s.ColumnConverter(idx) |  | ||||||
| } |  | ||||||
|  |  | ||||||
| // ExecContext implements driver.StmtExecContext ExecContext |  | ||||||
| func (w *wrapperStmt) ExecContext(ctx context.Context, args []driver.NamedValue) (driver.Result, error) { |  | ||||||
| 	var nctx context.Context |  | ||||||
| 	var span tracer.Span |  | ||||||
|  |  | ||||||
| 	name := getQueryName(ctx) |  | ||||||
| 	if w.ctx != nil { |  | ||||||
| 		nctx, span = w.opts.Tracer.Start(w.ctx, "sdk.database", tracer.WithSpanKind(tracer.SpanKindClient)) |  | ||||||
| 	} else { |  | ||||||
| 		nctx, span = w.opts.Tracer.Start(ctx, "sdk.database", tracer.WithSpanKind(tracer.SpanKindClient)) |  | ||||||
| 	} |  | ||||||
| 	span.AddLabels("db.method", "ExecContext") |  | ||||||
| 	span.AddLabels("db.statement", name) |  | ||||||
| 	defer span.Finish() |  | ||||||
| 	if len(args) > 0 { |  | ||||||
| 		span.AddLabels("db.args", fmt.Sprintf("%v", namedValueToLabels(args))) |  | ||||||
| 	} |  | ||||||
| 	if id, ok := ctx.Value(requestid.XRequestIDKey{}).(string); ok { |  | ||||||
| 		span.AddLabels("x-request-id", id) |  | ||||||
| 	} |  | ||||||
| 	labels := []string{labelMethod, "ExecContext", labelQuery, name} |  | ||||||
|  |  | ||||||
| 	if conn, ok := w.stmt.(driver.StmtExecContext); ok { |  | ||||||
| 		ts := time.Now() |  | ||||||
| 		res, err := conn.ExecContext(nctx, args) |  | ||||||
| 		td := time.Since(ts) |  | ||||||
| 		te := td.Seconds() |  | ||||||
| 		if err != nil { |  | ||||||
| 			w.opts.Meter.Counter(meterRequestTotal, append(labels, labelStatus, labelFailure)...).Inc() |  | ||||||
| 			span.SetStatus(tracer.SpanStatusError, err.Error()) |  | ||||||
| 		} else { |  | ||||||
| 			w.opts.Meter.Counter(meterRequestTotal, append(labels, labelStatus, labelSuccess)...).Inc() |  | ||||||
| 		} |  | ||||||
| 		w.opts.Meter.Summary(meterRequestLatencyMicroseconds, labels...).Update(te) |  | ||||||
| 		w.opts.Meter.Histogram(meterRequestDurationSeconds, labels...).Update(te) |  | ||||||
| 		/* |  | ||||||
| 			if w.opts.LoggerEnabled && w.opts.Logger.V(w.opts.LoggerLevel) { |  | ||||||
| 				w.opts.Logger.Log(ctx, w.opts.LoggerLevel, w.opts.LoggerObserver(ctx, "ExecContext", name, td, err)...) |  | ||||||
| 			} |  | ||||||
| 		*/ |  | ||||||
| 		return res, err |  | ||||||
| 	} |  | ||||||
|  |  | ||||||
| 	values, err := namedValueToValue(args) |  | ||||||
| 	if err != nil { |  | ||||||
| 		w.opts.Meter.Counter(meterRequestTotal, append(labels, labelStatus, labelFailure)...).Inc() |  | ||||||
| 		span.SetStatus(tracer.SpanStatusError, err.Error()) |  | ||||||
| 		/* |  | ||||||
| 			if w.opts.LoggerEnabled && w.opts.Logger.V(w.opts.LoggerLevel) { |  | ||||||
| 				w.opts.Logger.Log(ctx, w.opts.LoggerLevel, w.opts.LoggerObserver(ctx, "ExecContext", name, 0, err)...) |  | ||||||
| 			} |  | ||||||
| 		*/ |  | ||||||
| 		return nil, err |  | ||||||
| 	} |  | ||||||
| 	ts := time.Now() |  | ||||||
| 	res, err := w.Exec(values) // nolint:staticcheck |  | ||||||
| 	td := time.Since(ts) |  | ||||||
| 	te := td.Seconds() |  | ||||||
| 	if err != nil { |  | ||||||
| 		w.opts.Meter.Counter(meterRequestTotal, append(labels, labelStatus, labelFailure)...).Inc() |  | ||||||
| 		span.SetStatus(tracer.SpanStatusError, err.Error()) |  | ||||||
| 	} else { |  | ||||||
| 		w.opts.Meter.Counter(meterRequestTotal, append(labels, labelStatus, labelSuccess)...).Inc() |  | ||||||
| 	} |  | ||||||
|  |  | ||||||
| 	w.opts.Meter.Summary(meterRequestLatencyMicroseconds, labels...).Update(te) |  | ||||||
| 	w.opts.Meter.Histogram(meterRequestDurationSeconds, labels...).Update(te) |  | ||||||
| 	/* |  | ||||||
| 		if w.opts.LoggerEnabled && w.opts.Logger.V(w.opts.LoggerLevel) { |  | ||||||
| 			w.opts.Logger.Log(ctx, w.opts.LoggerLevel, w.opts.LoggerObserver(ctx, "ExecContext", name, td, err)...) |  | ||||||
| 		} |  | ||||||
| 	*/ |  | ||||||
| 	return res, err |  | ||||||
| } |  | ||||||
|  |  | ||||||
| // QueryContext implements driver.StmtQueryContext StmtQueryContext |  | ||||||
| func (w *wrapperStmt) QueryContext(ctx context.Context, args []driver.NamedValue) (driver.Rows, error) { |  | ||||||
| 	var nctx context.Context |  | ||||||
| 	var span tracer.Span |  | ||||||
|  |  | ||||||
| 	name := getQueryName(ctx) |  | ||||||
| 	if w.ctx != nil { |  | ||||||
| 		nctx, span = w.opts.Tracer.Start(w.ctx, "sdk.database", tracer.WithSpanKind(tracer.SpanKindClient)) |  | ||||||
| 	} else { |  | ||||||
| 		nctx, span = w.opts.Tracer.Start(ctx, "sdk.database", tracer.WithSpanKind(tracer.SpanKindClient)) |  | ||||||
| 	} |  | ||||||
| 	span.AddLabels("db.method", "QueryContext") |  | ||||||
| 	span.AddLabels("db.statement", name) |  | ||||||
| 	defer span.Finish() |  | ||||||
| 	if len(args) > 0 { |  | ||||||
| 		span.AddLabels("db.args", fmt.Sprintf("%v", namedValueToLabels(args))) |  | ||||||
| 	} |  | ||||||
| 	if id, ok := ctx.Value(requestid.XRequestIDKey{}).(string); ok { |  | ||||||
| 		span.AddLabels("x-request-id", id) |  | ||||||
| 	} |  | ||||||
| 	labels := []string{labelMethod, "QueryContext", labelQuery, name} |  | ||||||
| 	if conn, ok := w.stmt.(driver.StmtQueryContext); ok { |  | ||||||
| 		ts := time.Now() |  | ||||||
| 		rows, err := conn.QueryContext(nctx, args) |  | ||||||
| 		td := time.Since(ts) |  | ||||||
| 		te := td.Seconds() |  | ||||||
| 		if err != nil { |  | ||||||
| 			w.opts.Meter.Counter(meterRequestTotal, append(labels, labelStatus, labelFailure)...).Inc() |  | ||||||
| 			span.SetStatus(tracer.SpanStatusError, err.Error()) |  | ||||||
| 		} else { |  | ||||||
| 			w.opts.Meter.Counter(meterRequestTotal, append(labels, labelStatus, labelSuccess)...).Inc() |  | ||||||
| 		} |  | ||||||
|  |  | ||||||
| 		w.opts.Meter.Summary(meterRequestLatencyMicroseconds, labels...).Update(te) |  | ||||||
| 		w.opts.Meter.Histogram(meterRequestDurationSeconds, labels...).Update(te) |  | ||||||
| 		/* |  | ||||||
| 			if w.opts.LoggerEnabled && w.opts.Logger.V(w.opts.LoggerLevel) { |  | ||||||
| 				w.opts.Logger.Log(ctx, w.opts.LoggerLevel, w.opts.LoggerObserver(ctx, "QueryContext", name, td, err)...) |  | ||||||
| 			} |  | ||||||
| 		*/ |  | ||||||
| 		return rows, err |  | ||||||
| 	} |  | ||||||
|  |  | ||||||
| 	values, err := namedValueToValue(args) |  | ||||||
| 	if err != nil { |  | ||||||
| 		w.opts.Meter.Counter(meterRequestTotal, append(labels, labelStatus, labelFailure)...).Inc() |  | ||||||
|  |  | ||||||
| 		span.SetStatus(tracer.SpanStatusError, err.Error()) |  | ||||||
| 		/* |  | ||||||
| 			if w.opts.LoggerEnabled && w.opts.Logger.V(w.opts.LoggerLevel) { |  | ||||||
| 				w.opts.Logger.Log(ctx, w.opts.LoggerLevel, w.opts.LoggerObserver(ctx, "QueryContext", name, 0, err)...) |  | ||||||
| 			} |  | ||||||
| 		*/ |  | ||||||
| 		return nil, err |  | ||||||
| 	} |  | ||||||
| 	ts := time.Now() |  | ||||||
| 	rows, err := w.Query(values) // nolint:staticcheck |  | ||||||
| 	td := time.Since(ts) |  | ||||||
| 	te := td.Seconds() |  | ||||||
| 	if err != nil { |  | ||||||
| 		w.opts.Meter.Counter(meterRequestTotal, append(labels, labelStatus, labelFailure)...).Inc() |  | ||||||
| 		span.SetStatus(tracer.SpanStatusError, err.Error()) |  | ||||||
| 	} else { |  | ||||||
| 		w.opts.Meter.Counter(meterRequestTotal, append(labels, labelStatus, labelSuccess)...).Inc() |  | ||||||
| 	} |  | ||||||
|  |  | ||||||
| 	w.opts.Meter.Summary(meterRequestLatencyMicroseconds, labels...).Update(te) |  | ||||||
| 	w.opts.Meter.Histogram(meterRequestDurationSeconds, labels...).Update(te) |  | ||||||
| 	/* |  | ||||||
| 		if w.opts.LoggerEnabled && w.opts.Logger.V(w.opts.LoggerLevel) { |  | ||||||
| 			w.opts.Logger.Log(ctx, w.opts.LoggerLevel, w.opts.LoggerObserver(ctx, "QueryContext", name, td, err)...) |  | ||||||
| 		} |  | ||||||
| 	*/ |  | ||||||
| 	return rows, err |  | ||||||
| } |  | ||||||
| @@ -1,63 +0,0 @@ | |||||||
| package sql |  | ||||||
|  |  | ||||||
| import ( |  | ||||||
| 	"context" |  | ||||||
| 	"database/sql/driver" |  | ||||||
| 	"time" |  | ||||||
|  |  | ||||||
| 	"go.unistack.org/micro/v4/tracer" |  | ||||||
| ) |  | ||||||
|  |  | ||||||
| var _ driver.Tx = (*wrapperTx)(nil) |  | ||||||
|  |  | ||||||
| // wrapperTx defines a wrapper for driver.Tx |  | ||||||
| type wrapperTx struct { |  | ||||||
| 	tx   driver.Tx |  | ||||||
| 	span tracer.Span |  | ||||||
| 	opts Options |  | ||||||
| 	ctx  context.Context |  | ||||||
| } |  | ||||||
|  |  | ||||||
| // Commit implements driver.Tx Commit |  | ||||||
| func (w *wrapperTx) Commit() error { |  | ||||||
| 	ts := time.Now() |  | ||||||
| 	err := w.tx.Commit() |  | ||||||
| 	td := time.Since(ts) |  | ||||||
| 	_ = td |  | ||||||
| 	if w.span != nil { |  | ||||||
| 		if err != nil { |  | ||||||
| 			w.span.SetStatus(tracer.SpanStatusError, err.Error()) |  | ||||||
| 		} |  | ||||||
| 		w.span.Finish() |  | ||||||
| 	} |  | ||||||
| 	/* |  | ||||||
| 		if w.opts.LoggerEnabled && w.opts.Logger.V(w.opts.LoggerLevel) { |  | ||||||
| 			w.opts.Logger.Log(w.ctx, w.opts.LoggerLevel, w.opts.LoggerObserver(w.ctx, "Commit", getCallerName(), td, err)...) |  | ||||||
| 		} |  | ||||||
| 	*/ |  | ||||||
| 	w.ctx = nil |  | ||||||
|  |  | ||||||
| 	return err |  | ||||||
| } |  | ||||||
|  |  | ||||||
| // Rollback implements driver.Tx Rollback |  | ||||||
| func (w *wrapperTx) Rollback() error { |  | ||||||
| 	ts := time.Now() |  | ||||||
| 	err := w.tx.Rollback() |  | ||||||
| 	td := time.Since(ts) |  | ||||||
| 	_ = td |  | ||||||
| 	if w.span != nil { |  | ||||||
| 		if err != nil { |  | ||||||
| 			w.span.SetStatus(tracer.SpanStatusError, err.Error()) |  | ||||||
| 		} |  | ||||||
| 		w.span.Finish() |  | ||||||
| 	} |  | ||||||
| 	/* |  | ||||||
| 		if w.opts.LoggerEnabled && w.opts.Logger.V(w.opts.LoggerLevel) { |  | ||||||
| 			w.opts.Logger.Log(w.ctx, w.opts.LoggerLevel, w.opts.LoggerObserver(w.ctx, "Rollback", getCallerName(), td, err)...) |  | ||||||
| 		} |  | ||||||
| 	*/ |  | ||||||
| 	w.ctx = nil |  | ||||||
|  |  | ||||||
| 	return err |  | ||||||
| } |  | ||||||
| @@ -1,19 +0,0 @@ | |||||||
| package sql |  | ||||||
|  |  | ||||||
| import ( |  | ||||||
| 	"database/sql/driver" |  | ||||||
| ) |  | ||||||
|  |  | ||||||
| /* |  | ||||||
| func wrapDriver(d driver.Driver, opts Options) driver.Driver { |  | ||||||
| 	if _, ok := d.(driver.DriverContext); ok { |  | ||||||
| 		return &wrapperDriver{driver: d, opts: opts} |  | ||||||
| 	} |  | ||||||
| 	return struct{ driver.Driver }{&wrapperDriver{driver: d, opts: opts}} |  | ||||||
| } |  | ||||||
| */ |  | ||||||
|  |  | ||||||
| // WrapConn allows an existing driver.Conn to be wrapped. |  | ||||||
| func WrapConn(c driver.Conn, opts ...Option) driver.Conn { |  | ||||||
| 	return wrapConn(c, NewOptions(opts...)) |  | ||||||
| } |  | ||||||
							
								
								
									
										20699
									
								
								hooks/sql/wrap_gen.go
									
									
									
									
									
								
							
							
						
						
									
										20699
									
								
								hooks/sql/wrap_gen.go
									
									
									
									
									
								
							
										
											
												File diff suppressed because it is too large
												Load Diff
											
										
									
								
							| @@ -4,20 +4,18 @@ package logger | |||||||
| type Level int8 | type Level int8 | ||||||
|  |  | ||||||
| const ( | const ( | ||||||
| 	// TraceLevel usually used to find bugs, very verbose | 	// TraceLevel level usually used to find bugs, very verbose | ||||||
| 	TraceLevel Level = iota - 2 | 	TraceLevel Level = iota - 2 | ||||||
| 	// DebugLevel used only when enabled debugging | 	// DebugLevel level used only when enabled debugging | ||||||
| 	DebugLevel | 	DebugLevel | ||||||
| 	// InfoLevel used for general info about what's going on inside the application | 	// InfoLevel level used for general info about what's going on inside the application | ||||||
| 	InfoLevel | 	InfoLevel | ||||||
| 	// WarnLevel used for non-critical entries | 	// WarnLevel level used for non-critical entries | ||||||
| 	WarnLevel | 	WarnLevel | ||||||
| 	// ErrorLevel used for errors that should definitely be noted | 	// ErrorLevel level used for errors that should definitely be noted | ||||||
| 	ErrorLevel | 	ErrorLevel | ||||||
| 	// FatalLevel used for critical errors and then calls `os.Exit(1)` | 	// FatalLevel level used for critical errors and then calls `os.Exit(1)` | ||||||
| 	FatalLevel | 	FatalLevel | ||||||
| 	// NoneLevel used to disable logging |  | ||||||
| 	NoneLevel |  | ||||||
| ) | ) | ||||||
|  |  | ||||||
| // String returns logger level string representation | // String returns logger level string representation | ||||||
| @@ -35,8 +33,6 @@ func (l Level) String() string { | |||||||
| 		return "error" | 		return "error" | ||||||
| 	case FatalLevel: | 	case FatalLevel: | ||||||
| 		return "fatal" | 		return "fatal" | ||||||
| 	case NoneLevel: |  | ||||||
| 		return "none" |  | ||||||
| 	} | 	} | ||||||
| 	return "info" | 	return "info" | ||||||
| } | } | ||||||
| @@ -62,8 +58,6 @@ func ParseLevel(lvl string) Level { | |||||||
| 		return ErrorLevel | 		return ErrorLevel | ||||||
| 	case FatalLevel.String(): | 	case FatalLevel.String(): | ||||||
| 		return FatalLevel | 		return FatalLevel | ||||||
| 	case NoneLevel.String(): |  | ||||||
| 		return NoneLevel |  | ||||||
| 	} | 	} | ||||||
| 	return InfoLevel | 	return InfoLevel | ||||||
| } | } | ||||||
|   | |||||||
| @@ -52,12 +52,6 @@ type Options struct { | |||||||
| 	AddStacktrace bool | 	AddStacktrace bool | ||||||
| 	// DedupKeys deduplicate keys in log output | 	// DedupKeys deduplicate keys in log output | ||||||
| 	DedupKeys bool | 	DedupKeys bool | ||||||
| 	// FatalFinalizers runs in order in [logger.Fatal] method |  | ||||||
| 	FatalFinalizers []func(context.Context) |  | ||||||
| } |  | ||||||
|  |  | ||||||
| var DefaultFatalFinalizer = func(ctx context.Context) { |  | ||||||
| 	os.Exit(1) |  | ||||||
| } | } | ||||||
|  |  | ||||||
| // NewOptions creates new options struct | // NewOptions creates new options struct | ||||||
| @@ -71,7 +65,6 @@ func NewOptions(opts ...Option) Options { | |||||||
| 		AddSource:        true, | 		AddSource:        true, | ||||||
| 		TimeFunc:         time.Now, | 		TimeFunc:         time.Now, | ||||||
| 		Meter:            meter.DefaultMeter, | 		Meter:            meter.DefaultMeter, | ||||||
| 		FatalFinalizers:  []func(context.Context){DefaultFatalFinalizer}, |  | ||||||
| 	} | 	} | ||||||
|  |  | ||||||
| 	WithMicroKeys()(&options) | 	WithMicroKeys()(&options) | ||||||
| @@ -83,13 +76,6 @@ func NewOptions(opts ...Option) Options { | |||||||
| 	return options | 	return options | ||||||
| } | } | ||||||
|  |  | ||||||
| // WithFatalFinalizers set logger.Fatal finalizers |  | ||||||
| func WithFatalFinalizers(fncs ...func(context.Context)) Option { |  | ||||||
| 	return func(o *Options) { |  | ||||||
| 		o.FatalFinalizers = fncs |  | ||||||
| 	} |  | ||||||
| } |  | ||||||
|  |  | ||||||
| // WithContextAttrFuncs appends default funcs for the context attrs filler | // WithContextAttrFuncs appends default funcs for the context attrs filler | ||||||
| func WithContextAttrFuncs(fncs ...ContextAttrFunc) Option { | func WithContextAttrFuncs(fncs ...ContextAttrFunc) Option { | ||||||
| 	return func(o *Options) { | 	return func(o *Options) { | ||||||
|   | |||||||
| @@ -4,12 +4,14 @@ import ( | |||||||
| 	"context" | 	"context" | ||||||
| 	"io" | 	"io" | ||||||
| 	"log/slog" | 	"log/slog" | ||||||
|  | 	"os" | ||||||
| 	"reflect" | 	"reflect" | ||||||
| 	"regexp" | 	"regexp" | ||||||
| 	"runtime" | 	"runtime" | ||||||
| 	"strconv" | 	"strconv" | ||||||
| 	"sync" | 	"sync" | ||||||
| 	"sync/atomic" | 	"sync/atomic" | ||||||
|  | 	"time" | ||||||
|  |  | ||||||
| 	"go.unistack.org/micro/v4/logger" | 	"go.unistack.org/micro/v4/logger" | ||||||
| 	"go.unistack.org/micro/v4/semconv" | 	"go.unistack.org/micro/v4/semconv" | ||||||
| @@ -32,7 +34,6 @@ var ( | |||||||
| 	warnValue  = slog.StringValue("warn") | 	warnValue  = slog.StringValue("warn") | ||||||
| 	errorValue = slog.StringValue("error") | 	errorValue = slog.StringValue("error") | ||||||
| 	fatalValue = slog.StringValue("fatal") | 	fatalValue = slog.StringValue("fatal") | ||||||
| 	noneValue  = slog.StringValue("none") |  | ||||||
| ) | ) | ||||||
|  |  | ||||||
| type wrapper struct { | type wrapper struct { | ||||||
| @@ -84,8 +85,6 @@ func (s *slogLogger) renameAttr(_ []string, a slog.Attr) slog.Attr { | |||||||
| 			a.Value = errorValue | 			a.Value = errorValue | ||||||
| 		case lvl >= logger.FatalLevel: | 		case lvl >= logger.FatalLevel: | ||||||
| 			a.Value = fatalValue | 			a.Value = fatalValue | ||||||
| 		case lvl >= logger.NoneLevel: |  | ||||||
| 			a.Value = noneValue |  | ||||||
| 		default: | 		default: | ||||||
| 			a.Value = infoValue | 			a.Value = infoValue | ||||||
| 		} | 		} | ||||||
| @@ -229,12 +228,11 @@ func (s *slogLogger) Error(ctx context.Context, msg string, attrs ...interface{} | |||||||
|  |  | ||||||
| func (s *slogLogger) Fatal(ctx context.Context, msg string, attrs ...interface{}) { | func (s *slogLogger) Fatal(ctx context.Context, msg string, attrs ...interface{}) { | ||||||
| 	s.printLog(ctx, logger.FatalLevel, msg, attrs...) | 	s.printLog(ctx, logger.FatalLevel, msg, attrs...) | ||||||
| 	for _, fn := range s.opts.FatalFinalizers { |  | ||||||
| 		fn(ctx) |  | ||||||
| 	} |  | ||||||
| 	if closer, ok := s.opts.Out.(io.Closer); ok { | 	if closer, ok := s.opts.Out.(io.Closer); ok { | ||||||
| 		closer.Close() | 		closer.Close() | ||||||
| 	} | 	} | ||||||
|  | 	time.Sleep(1 * time.Second) | ||||||
|  | 	os.Exit(1) | ||||||
| } | } | ||||||
|  |  | ||||||
| func (s *slogLogger) Warn(ctx context.Context, msg string, attrs ...interface{}) { | func (s *slogLogger) Warn(ctx context.Context, msg string, attrs ...interface{}) { | ||||||
| @@ -318,8 +316,6 @@ func loggerToSlogLevel(level logger.Level) slog.Level { | |||||||
| 		return slog.LevelDebug - 1 | 		return slog.LevelDebug - 1 | ||||||
| 	case logger.FatalLevel: | 	case logger.FatalLevel: | ||||||
| 		return slog.LevelError + 1 | 		return slog.LevelError + 1 | ||||||
| 	case logger.NoneLevel: |  | ||||||
| 		return slog.LevelError + 2 |  | ||||||
| 	default: | 	default: | ||||||
| 		return slog.LevelInfo | 		return slog.LevelInfo | ||||||
| 	} | 	} | ||||||
| @@ -337,8 +333,6 @@ func slogToLoggerLevel(level slog.Level) logger.Level { | |||||||
| 		return logger.TraceLevel | 		return logger.TraceLevel | ||||||
| 	case slog.LevelError + 1: | 	case slog.LevelError + 1: | ||||||
| 		return logger.FatalLevel | 		return logger.FatalLevel | ||||||
| 	case slog.LevelError + 2: |  | ||||||
| 		return logger.NoneLevel |  | ||||||
| 	default: | 	default: | ||||||
| 		return logger.InfoLevel | 		return logger.InfoLevel | ||||||
| 	} | 	} | ||||||
|   | |||||||
| @@ -36,24 +36,6 @@ func TestStacktrace(t *testing.T) { | |||||||
| 	} | 	} | ||||||
| } | } | ||||||
|  |  | ||||||
| func TestNoneLevel(t *testing.T) { |  | ||||||
| 	ctx := context.TODO() |  | ||||||
| 	buf := bytes.NewBuffer(nil) |  | ||||||
| 	l := NewLogger(logger.WithLevel(logger.NoneLevel), logger.WithOutput(buf), |  | ||||||
| 		WithHandlerFunc(slog.NewTextHandler), |  | ||||||
| 		logger.WithAddStacktrace(true), |  | ||||||
| 	) |  | ||||||
| 	if err := l.Init(logger.WithFields("key1", "val1")); err != nil { |  | ||||||
| 		t.Fatal(err) |  | ||||||
| 	} |  | ||||||
|  |  | ||||||
| 	l.Error(ctx, "msg1", errors.New("err")) |  | ||||||
|  |  | ||||||
| 	if buf.Len() != 0 { |  | ||||||
| 		t.Fatalf("logger none level not works, buf contains: %s", buf.Bytes()) |  | ||||||
| 	} |  | ||||||
| } |  | ||||||
|  |  | ||||||
| func TestDelayedBuffer(t *testing.T) { | func TestDelayedBuffer(t *testing.T) { | ||||||
| 	ctx := context.TODO() | 	ctx := context.TODO() | ||||||
| 	buf := bytes.NewBuffer(nil) | 	buf := bytes.NewBuffer(nil) | ||||||
| @@ -80,7 +62,7 @@ func TestTime(t *testing.T) { | |||||||
| 		WithHandlerFunc(slog.NewTextHandler), | 		WithHandlerFunc(slog.NewTextHandler), | ||||||
| 		logger.WithAddStacktrace(true), | 		logger.WithAddStacktrace(true), | ||||||
| 		logger.WithTimeFunc(func() time.Time { | 		logger.WithTimeFunc(func() time.Time { | ||||||
| 			return time.Unix(0, 0).UTC() | 			return time.Unix(0, 0) | ||||||
| 		}), | 		}), | ||||||
| 	) | 	) | ||||||
| 	if err := l.Init(logger.WithFields("key1", "val1")); err != nil { | 	if err := l.Init(logger.WithFields("key1", "val1")); err != nil { | ||||||
| @@ -89,7 +71,8 @@ func TestTime(t *testing.T) { | |||||||
|  |  | ||||||
| 	l.Error(ctx, "msg1", errors.New("err")) | 	l.Error(ctx, "msg1", errors.New("err")) | ||||||
|  |  | ||||||
| 	if !bytes.Contains(buf.Bytes(), []byte(`timestamp=1970-01-01T00:00:00.000000000Z`)) { | 	if !bytes.Contains(buf.Bytes(), []byte(`timestamp=1970-01-01T03:00:00.000000000+03:00`)) && | ||||||
|  | 		!bytes.Contains(buf.Bytes(), []byte(`timestamp=1970-01-01T00:00:00.000000000Z`)) { | ||||||
| 		t.Fatalf("logger error not works, buf contains: %s", buf.Bytes()) | 		t.Fatalf("logger error not works, buf contains: %s", buf.Bytes()) | ||||||
| 	} | 	} | ||||||
| } | } | ||||||
| @@ -423,7 +406,7 @@ func TestLogger(t *testing.T) { | |||||||
| func Test_WithContextAttrFunc(t *testing.T) { | func Test_WithContextAttrFunc(t *testing.T) { | ||||||
| 	loggerContextAttrFuncs := []logger.ContextAttrFunc{ | 	loggerContextAttrFuncs := []logger.ContextAttrFunc{ | ||||||
| 		func(ctx context.Context) []interface{} { | 		func(ctx context.Context) []interface{} { | ||||||
| 			md, ok := metadata.FromOutgoingContext(ctx) | 			md, ok := metadata.FromIncomingContext(ctx) | ||||||
| 			if !ok { | 			if !ok { | ||||||
| 				return nil | 				return nil | ||||||
| 			} | 			} | ||||||
| @@ -442,7 +425,7 @@ func Test_WithContextAttrFunc(t *testing.T) { | |||||||
| 	logger.DefaultContextAttrFuncs = append(logger.DefaultContextAttrFuncs, loggerContextAttrFuncs...) | 	logger.DefaultContextAttrFuncs = append(logger.DefaultContextAttrFuncs, loggerContextAttrFuncs...) | ||||||
|  |  | ||||||
| 	ctx := context.TODO() | 	ctx := context.TODO() | ||||||
| 	ctx = metadata.AppendOutgoingContext(ctx, "X-Request-Id", uuid.New().String(), | 	ctx = metadata.AppendIncomingContext(ctx, "X-Request-Id", uuid.New().String(), | ||||||
| 		"Source-Service", "Test-System") | 		"Source-Service", "Test-System") | ||||||
|  |  | ||||||
| 	buf := bytes.NewBuffer(nil) | 	buf := bytes.NewBuffer(nil) | ||||||
| @@ -462,32 +445,10 @@ func Test_WithContextAttrFunc(t *testing.T) { | |||||||
| 		t.Fatalf("logger info, buf %s", buf.Bytes()) | 		t.Fatalf("logger info, buf %s", buf.Bytes()) | ||||||
| 	} | 	} | ||||||
| 	buf.Reset() | 	buf.Reset() | ||||||
| 	omd, _ := metadata.FromOutgoingContext(ctx) | 	imd, _ := metadata.FromIncomingContext(ctx) | ||||||
| 	l.Info(ctx, "test message1") | 	l.Info(ctx, "test message1") | ||||||
| 	omd.Set("Source-Service", "Test-System2") | 	imd.Set("Source-Service", "Test-System2") | ||||||
| 	l.Info(ctx, "test message2") | 	l.Info(ctx, "test message2") | ||||||
|  |  | ||||||
| 	// t.Logf("xxx %s", buf.Bytes()) | 	// t.Logf("xxx %s", buf.Bytes()) | ||||||
| } | } | ||||||
|  |  | ||||||
| func TestFatalFinalizers(t *testing.T) { |  | ||||||
| 	ctx := context.TODO() |  | ||||||
| 	buf := bytes.NewBuffer(nil) |  | ||||||
| 	l := NewLogger( |  | ||||||
| 		logger.WithLevel(logger.TraceLevel), |  | ||||||
| 		logger.WithOutput(buf), |  | ||||||
| 	) |  | ||||||
| 	if err := l.Init( |  | ||||||
| 		logger.WithFatalFinalizers(func(ctx context.Context) { |  | ||||||
| 			l.Info(ctx, "fatal finalizer") |  | ||||||
| 		})); err != nil { |  | ||||||
| 		t.Fatal(err) |  | ||||||
| 	} |  | ||||||
| 	l.Fatal(ctx, "info_msg1") |  | ||||||
| 	if !bytes.Contains(buf.Bytes(), []byte("fatal finalizer")) { |  | ||||||
| 		t.Fatalf("logger dont have fatal message, buf %s", buf.Bytes()) |  | ||||||
| 	} |  | ||||||
| 	if !bytes.Contains(buf.Bytes(), []byte("info_msg1")) { |  | ||||||
| 		t.Fatalf("logger dont have info_msg1 message, buf %s", buf.Bytes()) |  | ||||||
| 	} |  | ||||||
| } |  | ||||||
|   | |||||||
| @@ -1,294 +0,0 @@ | |||||||
| package metadata |  | ||||||
|  |  | ||||||
| import ( |  | ||||||
| 	"context" |  | ||||||
| 	"fmt" |  | ||||||
| 	"strings" |  | ||||||
| ) |  | ||||||
|  |  | ||||||
| // In the metadata package, context and metadata are treated as immutable. |  | ||||||
| // Deep copies of metadata are made to keep things safe and correct. |  | ||||||
| // If a user takes a map and changes it across threads, it's their responsibility. |  | ||||||
| // |  | ||||||
| // 1. Incoming Context |  | ||||||
| // |  | ||||||
| // This context is provided by an external system and populated by the server or broker of the micro framework. |  | ||||||
| // It should not be modified. The idea is to extract all necessary data from it, |  | ||||||
| // validate the data, and transfer it into the current context. |  | ||||||
| // After that, only the current context should be used throughout the code. |  | ||||||
| // |  | ||||||
| // 2. Current Context |  | ||||||
| // |  | ||||||
| // This is the context used during the execution flow. |  | ||||||
| // You can add any needed metadata to it and pass it through your code. |  | ||||||
| // |  | ||||||
| // 3. Outgoing Context |  | ||||||
| // |  | ||||||
| // This context is for sending data to external systems. |  | ||||||
| // You can add what you need before sending it out. |  | ||||||
| // But it’s usually better to build and prepare this context right before making the external call, |  | ||||||
| // instead of changing it in many places. |  | ||||||
| // |  | ||||||
| // Execution Flow: |  | ||||||
| // |  | ||||||
| // [External System] |  | ||||||
| //       ↓ |  | ||||||
| // [Incoming Context] |  | ||||||
| //       ↓ |  | ||||||
| // [Extract & Validate Metadata from Incoming Context] |  | ||||||
| //       ↓ |  | ||||||
| // [Prepare Current Context] |  | ||||||
| //       ↓ |  | ||||||
| // [Enrich Current Context] |  | ||||||
| //       ↓ |  | ||||||
| // [Business Logic] |  | ||||||
| //       ↓ |  | ||||||
| // [Prepare Outgoing Context] |  | ||||||
| //       ↓ |  | ||||||
| // [External System Call] |  | ||||||
|  |  | ||||||
| type ( |  | ||||||
| 	metadataCurrentKey  struct{} |  | ||||||
| 	metadataIncomingKey struct{} |  | ||||||
| 	metadataOutgoingKey struct{} |  | ||||||
|  |  | ||||||
| 	rawMetadata struct { |  | ||||||
| 		md    Metadata |  | ||||||
| 		added [][]string |  | ||||||
| 	} |  | ||||||
| ) |  | ||||||
|  |  | ||||||
| // NewContext creates a new context with the provided Metadata attached. |  | ||||||
| // The Metadata must not be modified after calling this function. |  | ||||||
| func NewContext(ctx context.Context, md Metadata) context.Context { |  | ||||||
| 	return context.WithValue(ctx, metadataCurrentKey{}, rawMetadata{md: md}) |  | ||||||
| } |  | ||||||
|  |  | ||||||
| // NewIncomingContext creates a new context with the provided incoming Metadata attached. |  | ||||||
| // The Metadata must not be modified after calling this function. |  | ||||||
| func NewIncomingContext(ctx context.Context, md Metadata) context.Context { |  | ||||||
| 	return context.WithValue(ctx, metadataIncomingKey{}, rawMetadata{md: md}) |  | ||||||
| } |  | ||||||
|  |  | ||||||
| // NewOutgoingContext creates a new context with the provided outgoing Metadata attached. |  | ||||||
| // The Metadata must not be modified after calling this function. |  | ||||||
| func NewOutgoingContext(ctx context.Context, md Metadata) context.Context { |  | ||||||
| 	return context.WithValue(ctx, metadataOutgoingKey{}, rawMetadata{md: md}) |  | ||||||
| } |  | ||||||
|  |  | ||||||
| // AppendContext returns a new context with the provided key-value pairs (kv) |  | ||||||
| // merged with any existing metadata in the context. For a description of kv, |  | ||||||
| // please refer to the Pairs documentation. |  | ||||||
| func AppendContext(ctx context.Context, kv ...string) context.Context { |  | ||||||
| 	if len(kv)%2 == 1 { |  | ||||||
| 		panic(fmt.Sprintf("metadata: AppendContext got an odd number of input pairs for metadata: %d", len(kv))) |  | ||||||
| 	} |  | ||||||
| 	md, _ := ctx.Value(metadataCurrentKey{}).(rawMetadata) |  | ||||||
| 	added := make([][]string, len(md.added)+1) |  | ||||||
| 	copy(added, md.added) |  | ||||||
| 	kvCopy := make([]string, 0, len(kv)) |  | ||||||
| 	for i := 0; i < len(kv); i += 2 { |  | ||||||
| 		kvCopy = append(kvCopy, strings.ToLower(kv[i]), kv[i+1]) |  | ||||||
| 	} |  | ||||||
| 	added[len(added)-1] = kvCopy |  | ||||||
| 	return context.WithValue(ctx, metadataCurrentKey{}, rawMetadata{md: md.md, added: added}) |  | ||||||
| } |  | ||||||
|  |  | ||||||
| // AppendOutgoingContext returns a new context with the provided key-value pairs (kv) |  | ||||||
| // merged with any existing metadata in the context. For a description of kv, |  | ||||||
| // please refer to the Pairs documentation. |  | ||||||
| func AppendOutgoingContext(ctx context.Context, kv ...string) context.Context { |  | ||||||
| 	if len(kv)%2 == 1 { |  | ||||||
| 		panic(fmt.Sprintf("metadata: AppendOutgoingContext got an odd number of input pairs for metadata: %d", len(kv))) |  | ||||||
| 	} |  | ||||||
| 	md, _ := ctx.Value(metadataOutgoingKey{}).(rawMetadata) |  | ||||||
| 	added := make([][]string, len(md.added)+1) |  | ||||||
| 	copy(added, md.added) |  | ||||||
| 	kvCopy := make([]string, 0, len(kv)) |  | ||||||
| 	for i := 0; i < len(kv); i += 2 { |  | ||||||
| 		kvCopy = append(kvCopy, strings.ToLower(kv[i]), kv[i+1]) |  | ||||||
| 	} |  | ||||||
| 	added[len(added)-1] = kvCopy |  | ||||||
| 	return context.WithValue(ctx, metadataOutgoingKey{}, rawMetadata{md: md.md, added: added}) |  | ||||||
| } |  | ||||||
|  |  | ||||||
| // FromContext retrieves a deep copy of the metadata from the context and returns it |  | ||||||
| // with a boolean indicating if it was found. |  | ||||||
| func FromContext(ctx context.Context) (Metadata, bool) { |  | ||||||
| 	raw, ok := ctx.Value(metadataCurrentKey{}).(rawMetadata) |  | ||||||
| 	if !ok { |  | ||||||
| 		return nil, false |  | ||||||
| 	} |  | ||||||
| 	metadataSize := len(raw.md) |  | ||||||
| 	for i := range raw.added { |  | ||||||
| 		metadataSize += len(raw.added[i]) / 2 |  | ||||||
| 	} |  | ||||||
|  |  | ||||||
| 	out := make(Metadata, metadataSize) |  | ||||||
| 	for k, v := range raw.md { |  | ||||||
| 		out[k] = copyOf(v) |  | ||||||
| 	} |  | ||||||
| 	for _, added := range raw.added { |  | ||||||
| 		if len(added)%2 == 1 { |  | ||||||
| 			panic(fmt.Sprintf("metadata: FromContext got an odd number of input pairs for metadata: %d", len(added))) |  | ||||||
| 		} |  | ||||||
|  |  | ||||||
| 		for i := 0; i < len(added); i += 2 { |  | ||||||
| 			out[added[i]] = append(out[added[i]], added[i+1]) |  | ||||||
| 		} |  | ||||||
| 	} |  | ||||||
| 	return out, true |  | ||||||
| } |  | ||||||
|  |  | ||||||
| // MustContext retrieves a deep copy of the metadata from the context and panics |  | ||||||
| // if the metadata is not found. |  | ||||||
| func MustContext(ctx context.Context) Metadata { |  | ||||||
| 	md, ok := FromContext(ctx) |  | ||||||
| 	if !ok { |  | ||||||
| 		panic("missing metadata") |  | ||||||
| 	} |  | ||||||
| 	return md |  | ||||||
| } |  | ||||||
|  |  | ||||||
| // FromIncomingContext retrieves a deep copy of the metadata from the context and returns it |  | ||||||
| // with a boolean indicating if it was found. |  | ||||||
| func FromIncomingContext(ctx context.Context) (Metadata, bool) { |  | ||||||
| 	raw, ok := ctx.Value(metadataIncomingKey{}).(rawMetadata) |  | ||||||
| 	if !ok { |  | ||||||
| 		return nil, false |  | ||||||
| 	} |  | ||||||
| 	metadataSize := len(raw.md) |  | ||||||
| 	for i := range raw.added { |  | ||||||
| 		metadataSize += len(raw.added[i]) / 2 |  | ||||||
| 	} |  | ||||||
|  |  | ||||||
| 	out := make(Metadata, metadataSize) |  | ||||||
| 	for k, v := range raw.md { |  | ||||||
| 		out[k] = copyOf(v) |  | ||||||
| 	} |  | ||||||
| 	for _, added := range raw.added { |  | ||||||
| 		if len(added)%2 == 1 { |  | ||||||
| 			panic(fmt.Sprintf("metadata: FromIncomingContext got an odd number of input pairs for metadata: %d", len(added))) |  | ||||||
| 		} |  | ||||||
|  |  | ||||||
| 		for i := 0; i < len(added); i += 2 { |  | ||||||
| 			out[added[i]] = append(out[added[i]], added[i+1]) |  | ||||||
| 		} |  | ||||||
| 	} |  | ||||||
| 	return out, true |  | ||||||
| } |  | ||||||
|  |  | ||||||
| // MustIncomingContext retrieves a deep copy of the metadata from the context and panics |  | ||||||
| // if the metadata is not found. |  | ||||||
| func MustIncomingContext(ctx context.Context) Metadata { |  | ||||||
| 	md, ok := FromIncomingContext(ctx) |  | ||||||
| 	if !ok { |  | ||||||
| 		panic("missing metadata") |  | ||||||
| 	} |  | ||||||
| 	return md |  | ||||||
| } |  | ||||||
|  |  | ||||||
| // FromOutgoingContext retrieves a deep copy of the metadata from the context and returns it |  | ||||||
| // with a boolean indicating if it was found. |  | ||||||
| func FromOutgoingContext(ctx context.Context) (Metadata, bool) { |  | ||||||
| 	raw, ok := ctx.Value(metadataOutgoingKey{}).(rawMetadata) |  | ||||||
| 	if !ok { |  | ||||||
| 		return nil, false |  | ||||||
| 	} |  | ||||||
|  |  | ||||||
| 	metadataSize := len(raw.md) |  | ||||||
| 	for i := range raw.added { |  | ||||||
| 		metadataSize += len(raw.added[i]) / 2 |  | ||||||
| 	} |  | ||||||
|  |  | ||||||
| 	out := make(Metadata, metadataSize) |  | ||||||
| 	for k, v := range raw.md { |  | ||||||
| 		out[k] = copyOf(v) |  | ||||||
| 	} |  | ||||||
| 	for _, added := range raw.added { |  | ||||||
| 		if len(added)%2 == 1 { |  | ||||||
| 			panic(fmt.Sprintf("metadata: FromOutgoingContext got an odd number of input pairs for metadata: %d", len(added))) |  | ||||||
| 		} |  | ||||||
|  |  | ||||||
| 		for i := 0; i < len(added); i += 2 { |  | ||||||
| 			out[added[i]] = append(out[added[i]], added[i+1]) |  | ||||||
| 		} |  | ||||||
| 	} |  | ||||||
| 	return out, ok |  | ||||||
| } |  | ||||||
|  |  | ||||||
| // MustOutgoingContext retrieves a deep copy of the metadata from the context and panics |  | ||||||
| // if the metadata is not found. |  | ||||||
| func MustOutgoingContext(ctx context.Context) Metadata { |  | ||||||
| 	md, ok := FromOutgoingContext(ctx) |  | ||||||
| 	if !ok { |  | ||||||
| 		panic("missing metadata") |  | ||||||
| 	} |  | ||||||
| 	return md |  | ||||||
| } |  | ||||||
|  |  | ||||||
| // ValueFromCurrentContext retrieves a deep copy of the metadata for the given key |  | ||||||
| // from the context, performing a case-insensitive search if needed. Returns nil if not found. |  | ||||||
| func ValueFromCurrentContext(ctx context.Context, key string) []string { |  | ||||||
| 	md, ok := ctx.Value(metadataCurrentKey{}).(rawMetadata) |  | ||||||
| 	if !ok { |  | ||||||
| 		return nil |  | ||||||
| 	} |  | ||||||
|  |  | ||||||
| 	if v, ok := md.md[key]; ok { |  | ||||||
| 		return copyOf(v) |  | ||||||
| 	} |  | ||||||
| 	for k, v := range md.md { |  | ||||||
| 		// Case-insensitive comparison: Metadata is a map, and there's no guarantee |  | ||||||
| 		// that the Metadata attached to the context is created using our helper |  | ||||||
| 		// functions. |  | ||||||
| 		if strings.EqualFold(k, key) { |  | ||||||
| 			return copyOf(v) |  | ||||||
| 		} |  | ||||||
| 	} |  | ||||||
| 	return nil |  | ||||||
| } |  | ||||||
|  |  | ||||||
| // ValueFromIncomingContext retrieves a deep copy of the metadata for the given key |  | ||||||
| // from the context, performing a case-insensitive search if needed. Returns nil if not found. |  | ||||||
| func ValueFromIncomingContext(ctx context.Context, key string) []string { |  | ||||||
| 	raw, ok := ctx.Value(metadataIncomingKey{}).(rawMetadata) |  | ||||||
| 	if !ok { |  | ||||||
| 		return nil |  | ||||||
| 	} |  | ||||||
|  |  | ||||||
| 	if v, ok := raw.md[key]; ok { |  | ||||||
| 		return copyOf(v) |  | ||||||
| 	} |  | ||||||
| 	for k, v := range raw.md { |  | ||||||
| 		// Case-insensitive comparison: Metadata is a map, and there's no guarantee |  | ||||||
| 		// that the Metadata attached to the context is created using our helper |  | ||||||
| 		// functions. |  | ||||||
| 		if strings.EqualFold(k, key) { |  | ||||||
| 			return copyOf(v) |  | ||||||
| 		} |  | ||||||
| 	} |  | ||||||
| 	return nil |  | ||||||
| } |  | ||||||
|  |  | ||||||
| // ValueFromOutgoingContext retrieves a deep copy of the metadata for the given key |  | ||||||
| // from the context, performing a case-insensitive search if needed. Returns nil if not found. |  | ||||||
| func ValueFromOutgoingContext(ctx context.Context, key string) []string { |  | ||||||
| 	md, ok := ctx.Value(metadataOutgoingKey{}).(rawMetadata) |  | ||||||
| 	if !ok { |  | ||||||
| 		return nil |  | ||||||
| 	} |  | ||||||
|  |  | ||||||
| 	if v, ok := md.md[key]; ok { |  | ||||||
| 		return copyOf(v) |  | ||||||
| 	} |  | ||||||
| 	for k, v := range md.md { |  | ||||||
| 		// Case-insensitive comparison: Metadata is a map, and there's no guarantee |  | ||||||
| 		// that the Metadata attached to the context is created using our helper |  | ||||||
| 		// functions. |  | ||||||
| 		if strings.EqualFold(k, key) { |  | ||||||
| 			return copyOf(v) |  | ||||||
| 		} |  | ||||||
| 	} |  | ||||||
| 	return nil |  | ||||||
| } |  | ||||||
| @@ -2,18 +2,18 @@ | |||||||
| package metadata | package metadata | ||||||
|  |  | ||||||
| var ( | var ( | ||||||
| 	// HeaderTopic is the header name that contains topic name. | 	// HeaderTopic is the header name that contains topic name | ||||||
| 	HeaderTopic = "Micro-Topic" | 	HeaderTopic = "Micro-Topic" | ||||||
| 	// HeaderContentType specifies content type of message. | 	// HeaderContentType specifies content type of message | ||||||
| 	HeaderContentType = "Content-Type" | 	HeaderContentType = "Content-Type" | ||||||
| 	// HeaderEndpoint specifies endpoint in service. | 	// HeaderEndpoint specifies endpoint in service | ||||||
| 	HeaderEndpoint = "Micro-Endpoint" | 	HeaderEndpoint = "Micro-Endpoint" | ||||||
| 	// HeaderService specifies service. | 	// HeaderService specifies service | ||||||
| 	HeaderService = "Micro-Service" | 	HeaderService = "Micro-Service" | ||||||
| 	// HeaderTimeout specifies timeout of operation. | 	// HeaderTimeout specifies timeout of operation | ||||||
| 	HeaderTimeout = "Micro-Timeout" | 	HeaderTimeout = "Micro-Timeout" | ||||||
| 	// HeaderAuthorization specifies Authorization header. | 	// HeaderAuthorization specifies Authorization header | ||||||
| 	HeaderAuthorization = "Authorization" | 	HeaderAuthorization = "Authorization" | ||||||
| 	// HeaderXRequestID specifies request id. | 	// HeaderXRequestID specifies request id | ||||||
| 	HeaderXRequestID = "X-Request-Id" | 	HeaderXRequestID = "X-Request-Id" | ||||||
| ) | ) | ||||||
|   | |||||||
| @@ -1,7 +0,0 @@ | |||||||
| package metadata |  | ||||||
|  |  | ||||||
| func copyOf(v []string) []string { |  | ||||||
| 	vals := make([]string, len(v)) |  | ||||||
| 	copy(vals, v) |  | ||||||
| 	return vals |  | ||||||
| } |  | ||||||
| @@ -1,37 +0,0 @@ | |||||||
| package metadata |  | ||||||
|  |  | ||||||
| import "sort" |  | ||||||
|  |  | ||||||
| type Iterator struct { |  | ||||||
| 	md   Metadata |  | ||||||
| 	keys []string |  | ||||||
| 	cur  int |  | ||||||
| 	cnt  int |  | ||||||
| } |  | ||||||
|  |  | ||||||
| // Next advances the iterator to the next element. |  | ||||||
| func (iter *Iterator) Next(k *string, v *[]string) bool { |  | ||||||
| 	if iter.cur+1 > iter.cnt { |  | ||||||
| 		return false |  | ||||||
| 	} |  | ||||||
|  |  | ||||||
| 	if k != nil && v != nil { |  | ||||||
| 		*k = iter.keys[iter.cur] |  | ||||||
| 		vv := iter.md[*k] |  | ||||||
| 		*v = make([]string, len(vv)) |  | ||||||
| 		copy(*v, vv) |  | ||||||
| 		iter.cur++ |  | ||||||
| 	} |  | ||||||
| 	return true |  | ||||||
| } |  | ||||||
|  |  | ||||||
| // Iterator returns an iterator for iterating over metadata in sorted order. |  | ||||||
| func (md Metadata) Iterator() *Iterator { |  | ||||||
| 	iter := &Iterator{md: md, cnt: len(md)} |  | ||||||
| 	iter.keys = make([]string, 0, iter.cnt) |  | ||||||
| 	for k := range md { |  | ||||||
| 		iter.keys = append(iter.keys, k) |  | ||||||
| 	} |  | ||||||
| 	sort.Strings(iter.keys) |  | ||||||
| 	return iter |  | ||||||
| } |  | ||||||
| @@ -1,18 +1,21 @@ | |||||||
| package metadata | package metadata | ||||||
|  |  | ||||||
| import ( | import ( | ||||||
|  | 	"context" | ||||||
| 	"fmt" | 	"fmt" | ||||||
| 	"net/textproto" | 	"net/textproto" | ||||||
|  | 	"sort" | ||||||
| 	"strings" | 	"strings" | ||||||
| ) | ) | ||||||
|  |  | ||||||
| // defaultMetadataSize is used when initializing new Metadata. | // defaultMetadataSize used when need to init new Metadata | ||||||
| var defaultMetadataSize = 2 | var defaultMetadataSize = 2 | ||||||
|  |  | ||||||
| // Metadata maps keys to values. Use the New, NewWithMetadata and Pairs functions to create it. | // Metadata is a mapping from metadata keys to values. Users should use the following | ||||||
|  | // two convenience functions New and Pairs to generate Metadata. | ||||||
| type Metadata map[string][]string | type Metadata map[string][]string | ||||||
|  |  | ||||||
| // New creates a zero-value Metadata with the specified size. | // New creates an zero Metadata. | ||||||
| func New(l int) Metadata { | func New(l int) Metadata { | ||||||
| 	if l == 0 { | 	if l == 0 { | ||||||
| 		l = defaultMetadataSize | 		l = defaultMetadataSize | ||||||
| @@ -21,7 +24,7 @@ func New(l int) Metadata { | |||||||
| 	return md | 	return md | ||||||
| } | } | ||||||
|  |  | ||||||
| // NewWithMetadata creates a Metadata from the provided key-value map. | // NewWithMetadata creates an Metadata from a given key-value map. | ||||||
| func NewWithMetadata(m map[string]string) Metadata { | func NewWithMetadata(m map[string]string) Metadata { | ||||||
| 	md := make(Metadata, len(m)) | 	md := make(Metadata, len(m)) | ||||||
| 	for key, val := range m { | 	for key, val := range m { | ||||||
| @@ -30,7 +33,8 @@ func NewWithMetadata(m map[string]string) Metadata { | |||||||
| 	return md | 	return md | ||||||
| } | } | ||||||
|  |  | ||||||
| // Pairs returns a Metadata formed from the key-value mapping. It panics if the length of kv is odd. | // Pairs returns an Metadata formed by the mapping of key, value ... | ||||||
|  | // Pairs panics if len(kv) is odd. | ||||||
| func Pairs(kv ...string) Metadata { | func Pairs(kv ...string) Metadata { | ||||||
| 	if len(kv)%2 == 1 { | 	if len(kv)%2 == 1 { | ||||||
| 		panic(fmt.Sprintf("metadata: Pairs got the odd number of input pairs for metadata: %d", len(kv))) | 		panic(fmt.Sprintf("metadata: Pairs got the odd number of input pairs for metadata: %d", len(kv))) | ||||||
| @@ -42,19 +46,12 @@ func Pairs(kv ...string) Metadata { | |||||||
| 	return md | 	return md | ||||||
| } | } | ||||||
|  |  | ||||||
| // Join combines multiple Metadatas into a single Metadata. | // Len returns the number of items in Metadata. | ||||||
| // The order of values for each key is determined by the order in which the Metadatas are provided to Join. | func (md Metadata) Len() int { | ||||||
| func Join(mds ...Metadata) Metadata { | 	return len(md) | ||||||
| 	out := Metadata{} |  | ||||||
| 	for _, md := range mds { |  | ||||||
| 		for k, v := range md { |  | ||||||
| 			out[k] = append(out[k], v...) |  | ||||||
| 		} |  | ||||||
| 	} |  | ||||||
| 	return out |  | ||||||
| } | } | ||||||
|  |  | ||||||
| // Copy returns a deep copy of Metadata. | // Copy returns a copy of Metadata. | ||||||
| func Copy(src Metadata) Metadata { | func Copy(src Metadata) Metadata { | ||||||
| 	out := make(Metadata, len(src)) | 	out := make(Metadata, len(src)) | ||||||
| 	for k, v := range src { | 	for k, v := range src { | ||||||
| @@ -63,7 +60,7 @@ func Copy(src Metadata) Metadata { | |||||||
| 	return out | 	return out | ||||||
| } | } | ||||||
|  |  | ||||||
| // Copy returns a deep copy of Metadata. | // Copy returns a copy of Metadata. | ||||||
| func (md Metadata) Copy() Metadata { | func (md Metadata) Copy() Metadata { | ||||||
| 	out := make(Metadata, len(md)) | 	out := make(Metadata, len(md)) | ||||||
| 	for k, v := range md { | 	for k, v := range md { | ||||||
| @@ -72,19 +69,7 @@ func (md Metadata) Copy() Metadata { | |||||||
| 	return out | 	return out | ||||||
| } | } | ||||||
|  |  | ||||||
| // CopyTo performs a deep copy of Metadata to the out. | // AsMap returns a copy of Metadata with map[string]string. | ||||||
| func (md Metadata) CopyTo(out Metadata) { |  | ||||||
| 	for k, v := range md { |  | ||||||
| 		out[k] = copyOf(v) |  | ||||||
| 	} |  | ||||||
| } |  | ||||||
|  |  | ||||||
| // Len returns the number of items in Metadata. |  | ||||||
| func (md Metadata) Len() int { |  | ||||||
| 	return len(md) |  | ||||||
| } |  | ||||||
|  |  | ||||||
| // AsMap returns a deep copy of Metadata as a map[string]string |  | ||||||
| func (md Metadata) AsMap() map[string]string { | func (md Metadata) AsMap() map[string]string { | ||||||
| 	out := make(map[string]string, len(md)) | 	out := make(map[string]string, len(md)) | ||||||
| 	for k, v := range md { | 	for k, v := range md { | ||||||
| @@ -93,7 +78,8 @@ func (md Metadata) AsMap() map[string]string { | |||||||
| 	return out | 	return out | ||||||
| } | } | ||||||
|  |  | ||||||
| // AsHTTP1 returns a deep copy of Metadata with keys converted to canonical MIME header key format. | // AsHTTP1 returns a copy of Metadata | ||||||
|  | // with CanonicalMIMEHeaderKey. | ||||||
| func (md Metadata) AsHTTP1() map[string][]string { | func (md Metadata) AsHTTP1() map[string][]string { | ||||||
| 	out := make(map[string][]string, len(md)) | 	out := make(map[string][]string, len(md)) | ||||||
| 	for k, v := range md { | 	for k, v := range md { | ||||||
| @@ -102,7 +88,8 @@ func (md Metadata) AsHTTP1() map[string][]string { | |||||||
| 	return out | 	return out | ||||||
| } | } | ||||||
|  |  | ||||||
| // AsHTTP2 returns a deep copy of Metadata with keys converted to lowercase. | // AsHTTP1 returns a copy of Metadata | ||||||
|  | // with strings.ToLower. | ||||||
| func (md Metadata) AsHTTP2() map[string][]string { | func (md Metadata) AsHTTP2() map[string][]string { | ||||||
| 	out := make(map[string][]string, len(md)) | 	out := make(map[string][]string, len(md)) | ||||||
| 	for k, v := range md { | 	for k, v := range md { | ||||||
| @@ -111,35 +98,75 @@ func (md Metadata) AsHTTP2() map[string][]string { | |||||||
| 	return out | 	return out | ||||||
| } | } | ||||||
|  |  | ||||||
| // Get retrieves the values for a given key, checking the key in three formats: | // CopyTo copies Metadata to out. | ||||||
| // - exact case, | func (md Metadata) CopyTo(out Metadata) { | ||||||
| // - lower case, | 	for k, v := range md { | ||||||
| // - canonical MIME header key format. | 		out[k] = copyOf(v) | ||||||
| func (md Metadata) Get(k string) []string { | 	} | ||||||
|  | } | ||||||
|  |  | ||||||
|  | // Get obtains the values for a given key. | ||||||
|  | func (md Metadata) MustGet(k string) []string { | ||||||
|  | 	v, ok := md.Get(k) | ||||||
|  | 	if !ok { | ||||||
|  | 		panic("missing metadata key") | ||||||
|  | 	} | ||||||
|  | 	return v | ||||||
|  | } | ||||||
|  |  | ||||||
|  | // Get obtains the values for a given key. | ||||||
|  | func (md Metadata) Get(k string) ([]string, bool) { | ||||||
| 	v, ok := md[k] | 	v, ok := md[k] | ||||||
| 	if !ok { | 	if !ok { | ||||||
| 		v, ok = md[strings.ToLower(k)] | 		v, ok = md[strings.ToLower(k)] | ||||||
| 	} | 	} | ||||||
| 	if !ok { | 	if !ok { | ||||||
| 		v = md[textproto.CanonicalMIMEHeaderKey(k)] | 		v, ok = md[textproto.CanonicalMIMEHeaderKey(k)] | ||||||
|  | 	} | ||||||
|  | 	return v, ok | ||||||
|  | } | ||||||
|  |  | ||||||
|  | // MustGetJoined obtains the values for a given key | ||||||
|  | // with joined values with "," symbol | ||||||
|  | func (md Metadata) MustGetJoined(k string) string { | ||||||
|  | 	v, ok := md.GetJoined(k) | ||||||
|  | 	if !ok { | ||||||
|  | 		panic("missing metadata key") | ||||||
| 	} | 	} | ||||||
| 	return v | 	return v | ||||||
| } | } | ||||||
|  |  | ||||||
| // GetJoined retrieves the values for a given key and joins them into a single string, separated by commas. | // GetJoined obtains the values for a given key | ||||||
| func (md Metadata) GetJoined(k string) string { | // with joined values with "," symbol | ||||||
| 	return strings.Join(md.Get(k), ",") | func (md Metadata) GetJoined(k string) (string, bool) { | ||||||
|  | 	v, ok := md.Get(k) | ||||||
|  | 	if !ok { | ||||||
|  | 		return "", ok | ||||||
|  | 	} | ||||||
|  | 	return strings.Join(v, ","), true | ||||||
| } | } | ||||||
|  |  | ||||||
| // Set assigns the values to the given key. | // Set sets the value of a given key with a slice of values. | ||||||
| func (md Metadata) Set(key string, vals ...string) { | func (md Metadata) Add(key string, vals ...string) { | ||||||
| 	if len(vals) == 0 { | 	if len(vals) == 0 { | ||||||
| 		return | 		return | ||||||
| 	} | 	} | ||||||
| 	md[key] = vals | 	md[key] = vals | ||||||
| } | } | ||||||
|  |  | ||||||
| // Append adds values to the existing values for the given key. | // Set sets the value of a given key with a slice of values. | ||||||
|  | func (md Metadata) Set(kvs ...string) { | ||||||
|  | 	if len(kvs)%2 == 1 { | ||||||
|  | 		panic(fmt.Sprintf("metadata: Set got an odd number of input pairs for metadata: %d", len(kvs))) | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	for i := 0; i < len(kvs); i += 2 { | ||||||
|  | 		md[kvs[i]] = append(md[kvs[i]], kvs[i+1]) | ||||||
|  | 	} | ||||||
|  | } | ||||||
|  |  | ||||||
|  | // Append adds the values to key k, not overwriting what was already stored at | ||||||
|  | // that key. | ||||||
| func (md Metadata) Append(key string, vals ...string) { | func (md Metadata) Append(key string, vals ...string) { | ||||||
| 	if len(vals) == 0 { | 	if len(vals) == 0 { | ||||||
| 		return | 		return | ||||||
| @@ -147,10 +174,7 @@ func (md Metadata) Append(key string, vals ...string) { | |||||||
| 	md[key] = append(md[key], vals...) | 	md[key] = append(md[key], vals...) | ||||||
| } | } | ||||||
|  |  | ||||||
| // Del removes the values for the given keys k. It checks and removes the keys in the following formats: | // Del removes the values for a given keys k. | ||||||
| // - exact case, |  | ||||||
| // - lower case, |  | ||||||
| // - canonical MIME header key format. |  | ||||||
| func (md Metadata) Del(k ...string) { | func (md Metadata) Del(k ...string) { | ||||||
| 	for i := range k { | 	for i := range k { | ||||||
| 		delete(md, k[i]) | 		delete(md, k[i]) | ||||||
| @@ -158,3 +182,321 @@ func (md Metadata) Del(k ...string) { | |||||||
| 		delete(md, textproto.CanonicalMIMEHeaderKey(k[i])) | 		delete(md, textproto.CanonicalMIMEHeaderKey(k[i])) | ||||||
| 	} | 	} | ||||||
| } | } | ||||||
|  |  | ||||||
|  | // Join joins any number of Metadatas into a single Metadata. | ||||||
|  | // | ||||||
|  | // The order of values for each key is determined by the order in which the Metadatas | ||||||
|  | // containing those values are presented to Join. | ||||||
|  | func Join(mds ...Metadata) Metadata { | ||||||
|  | 	out := Metadata{} | ||||||
|  | 	for _, Metadata := range mds { | ||||||
|  | 		for k, v := range Metadata { | ||||||
|  | 			out[k] = append(out[k], v...) | ||||||
|  | 		} | ||||||
|  | 	} | ||||||
|  | 	return out | ||||||
|  | } | ||||||
|  |  | ||||||
|  | type ( | ||||||
|  | 	metadataIncomingKey struct{} | ||||||
|  | 	metadataOutgoingKey struct{} | ||||||
|  | 	metadataCurrentKey  struct{} | ||||||
|  | ) | ||||||
|  |  | ||||||
|  | // NewContext creates a new context with Metadata attached. Metadata must | ||||||
|  | // not be modified after calling this function. | ||||||
|  | func NewContext(ctx context.Context, md Metadata) context.Context { | ||||||
|  | 	return context.WithValue(ctx, metadataCurrentKey{}, rawMetadata{md: md}) | ||||||
|  | } | ||||||
|  |  | ||||||
|  | // NewIncomingContext creates a new context with incoming Metadata attached. Metadata must | ||||||
|  | // not be modified after calling this function. | ||||||
|  | func NewIncomingContext(ctx context.Context, md Metadata) context.Context { | ||||||
|  | 	return context.WithValue(ctx, metadataIncomingKey{}, rawMetadata{md: md}) | ||||||
|  | } | ||||||
|  |  | ||||||
|  | // NewOutgoingContext creates a new context with outgoing Metadata attached. If used | ||||||
|  | // in conjunction with AppendOutgoingContext, NewOutgoingContext will | ||||||
|  | // overwrite any previously-appended metadata. Metadata must not be modified after | ||||||
|  | // calling this function. | ||||||
|  | func NewOutgoingContext(ctx context.Context, md Metadata) context.Context { | ||||||
|  | 	return context.WithValue(ctx, metadataOutgoingKey{}, rawMetadata{md: md}) | ||||||
|  | } | ||||||
|  |  | ||||||
|  | // AppendContext returns a new context with the provided kv merged | ||||||
|  | // with any existing metadata in the context. Please refer to the documentation | ||||||
|  | // of Pairs for a description of kv. | ||||||
|  | func AppendContext(ctx context.Context, kv ...string) context.Context { | ||||||
|  | 	if len(kv)%2 == 1 { | ||||||
|  | 		panic(fmt.Sprintf("metadata: AppendContext got an odd number of input pairs for metadata: %d", len(kv))) | ||||||
|  | 	} | ||||||
|  | 	md, _ := ctx.Value(metadataCurrentKey{}).(rawMetadata) | ||||||
|  | 	added := make([][]string, len(md.added)+1) | ||||||
|  | 	copy(added, md.added) | ||||||
|  | 	kvCopy := make([]string, 0, len(kv)) | ||||||
|  | 	for i := 0; i < len(kv); i += 2 { | ||||||
|  | 		kvCopy = append(kvCopy, strings.ToLower(kv[i]), kv[i+1]) | ||||||
|  | 	} | ||||||
|  | 	added[len(added)-1] = kvCopy | ||||||
|  | 	return context.WithValue(ctx, metadataCurrentKey{}, rawMetadata{md: md.md, added: added}) | ||||||
|  | } | ||||||
|  |  | ||||||
|  | // AppendIncomingContext returns a new context with the provided kv merged | ||||||
|  | // with any existing metadata in the context. Please refer to the documentation | ||||||
|  | // of Pairs for a description of kv. | ||||||
|  | func AppendIncomingContext(ctx context.Context, kv ...string) context.Context { | ||||||
|  | 	if len(kv)%2 == 1 { | ||||||
|  | 		panic(fmt.Sprintf("metadata: AppendIncomingContext got an odd number of input pairs for metadata: %d", len(kv))) | ||||||
|  | 	} | ||||||
|  | 	md, _ := ctx.Value(metadataIncomingKey{}).(rawMetadata) | ||||||
|  | 	added := make([][]string, len(md.added)+1) | ||||||
|  | 	copy(added, md.added) | ||||||
|  | 	kvCopy := make([]string, 0, len(kv)) | ||||||
|  | 	for i := 0; i < len(kv); i += 2 { | ||||||
|  | 		kvCopy = append(kvCopy, strings.ToLower(kv[i]), kv[i+1]) | ||||||
|  | 	} | ||||||
|  | 	added[len(added)-1] = kvCopy | ||||||
|  | 	return context.WithValue(ctx, metadataIncomingKey{}, rawMetadata{md: md.md, added: added}) | ||||||
|  | } | ||||||
|  |  | ||||||
|  | // AppendOutgoingContext returns a new context with the provided kv merged | ||||||
|  | // with any existing metadata in the context. Please refer to the documentation | ||||||
|  | // of Pairs for a description of kv. | ||||||
|  | func AppendOutgoingContext(ctx context.Context, kv ...string) context.Context { | ||||||
|  | 	if len(kv)%2 == 1 { | ||||||
|  | 		panic(fmt.Sprintf("metadata: AppendOutgoingContext got an odd number of input pairs for metadata: %d", len(kv))) | ||||||
|  | 	} | ||||||
|  | 	md, _ := ctx.Value(metadataOutgoingKey{}).(rawMetadata) | ||||||
|  | 	added := make([][]string, len(md.added)+1) | ||||||
|  | 	copy(added, md.added) | ||||||
|  | 	kvCopy := make([]string, 0, len(kv)) | ||||||
|  | 	for i := 0; i < len(kv); i += 2 { | ||||||
|  | 		kvCopy = append(kvCopy, strings.ToLower(kv[i]), kv[i+1]) | ||||||
|  | 	} | ||||||
|  | 	added[len(added)-1] = kvCopy | ||||||
|  | 	return context.WithValue(ctx, metadataOutgoingKey{}, rawMetadata{md: md.md, added: added}) | ||||||
|  | } | ||||||
|  |  | ||||||
|  | // FromContext returns the metadata in ctx if it exists. | ||||||
|  | func FromContext(ctx context.Context) (Metadata, bool) { | ||||||
|  | 	raw, ok := ctx.Value(metadataCurrentKey{}).(rawMetadata) | ||||||
|  | 	if !ok { | ||||||
|  | 		return nil, false | ||||||
|  | 	} | ||||||
|  | 	metadataSize := len(raw.md) | ||||||
|  | 	for i := range raw.added { | ||||||
|  | 		metadataSize += len(raw.added[i]) / 2 | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	out := make(Metadata, metadataSize) | ||||||
|  | 	for k, v := range raw.md { | ||||||
|  | 		out[k] = copyOf(v) | ||||||
|  | 	} | ||||||
|  | 	for _, added := range raw.added { | ||||||
|  | 		if len(added)%2 == 1 { | ||||||
|  | 			panic(fmt.Sprintf("metadata: FromContext got an odd number of input pairs for metadata: %d", len(added))) | ||||||
|  | 		} | ||||||
|  |  | ||||||
|  | 		for i := 0; i < len(added); i += 2 { | ||||||
|  | 			out[added[i]] = append(out[added[i]], added[i+1]) | ||||||
|  | 		} | ||||||
|  | 	} | ||||||
|  | 	return out, true | ||||||
|  | } | ||||||
|  |  | ||||||
|  | // MustContext returns the metadata in ctx. | ||||||
|  | func MustContext(ctx context.Context) Metadata { | ||||||
|  | 	md, ok := FromContext(ctx) | ||||||
|  | 	if !ok { | ||||||
|  | 		panic("missing metadata") | ||||||
|  | 	} | ||||||
|  | 	return md | ||||||
|  | } | ||||||
|  |  | ||||||
|  | // FromIncomingContext returns the incoming metadata in ctx if it exists. | ||||||
|  | func FromIncomingContext(ctx context.Context) (Metadata, bool) { | ||||||
|  | 	raw, ok := ctx.Value(metadataIncomingKey{}).(rawMetadata) | ||||||
|  | 	if !ok { | ||||||
|  | 		return nil, false | ||||||
|  | 	} | ||||||
|  | 	metadataSize := len(raw.md) | ||||||
|  | 	for i := range raw.added { | ||||||
|  | 		metadataSize += len(raw.added[i]) / 2 | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	out := make(Metadata, metadataSize) | ||||||
|  | 	for k, v := range raw.md { | ||||||
|  | 		out[k] = copyOf(v) | ||||||
|  | 	} | ||||||
|  | 	for _, added := range raw.added { | ||||||
|  | 		if len(added)%2 == 1 { | ||||||
|  | 			panic(fmt.Sprintf("metadata: FromIncomingContext got an odd number of input pairs for metadata: %d", len(added))) | ||||||
|  | 		} | ||||||
|  |  | ||||||
|  | 		for i := 0; i < len(added); i += 2 { | ||||||
|  | 			out[added[i]] = append(out[added[i]], added[i+1]) | ||||||
|  | 		} | ||||||
|  | 	} | ||||||
|  | 	return out, true | ||||||
|  | } | ||||||
|  |  | ||||||
|  | // MustIncomingContext returns the incoming metadata in ctx. | ||||||
|  | func MustIncomingContext(ctx context.Context) Metadata { | ||||||
|  | 	md, ok := FromIncomingContext(ctx) | ||||||
|  | 	if !ok { | ||||||
|  | 		panic("missing metadata") | ||||||
|  | 	} | ||||||
|  | 	return md | ||||||
|  | } | ||||||
|  |  | ||||||
|  | // ValueFromIncomingContext returns the metadata value corresponding to the metadata | ||||||
|  | // key from the incoming metadata if it exists. Keys are matched in a case insensitive | ||||||
|  | // manner. | ||||||
|  | func ValueFromIncomingContext(ctx context.Context, key string) []string { | ||||||
|  | 	raw, ok := ctx.Value(metadataIncomingKey{}).(rawMetadata) | ||||||
|  | 	if !ok { | ||||||
|  | 		return nil | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	if v, ok := raw.md[key]; ok { | ||||||
|  | 		return copyOf(v) | ||||||
|  | 	} | ||||||
|  | 	for k, v := range raw.md { | ||||||
|  | 		// Case insensitive comparison: Metadata is a map, and there's no guarantee | ||||||
|  | 		// that the Metadata attached to the context is created using our helper | ||||||
|  | 		// functions. | ||||||
|  | 		if strings.EqualFold(k, key) { | ||||||
|  | 			return copyOf(v) | ||||||
|  | 		} | ||||||
|  | 	} | ||||||
|  | 	return nil | ||||||
|  | } | ||||||
|  |  | ||||||
|  | // ValueFromCurrentContext returns the metadata value corresponding to the metadata | ||||||
|  | // key from the incoming metadata if it exists. Keys are matched in a case insensitive | ||||||
|  | // manner. | ||||||
|  | func ValueFromCurrentContext(ctx context.Context, key string) []string { | ||||||
|  | 	md, ok := ctx.Value(metadataCurrentKey{}).(rawMetadata) | ||||||
|  | 	if !ok { | ||||||
|  | 		return nil | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	if v, ok := md.md[key]; ok { | ||||||
|  | 		return copyOf(v) | ||||||
|  | 	} | ||||||
|  | 	for k, v := range md.md { | ||||||
|  | 		// Case insensitive comparison: Metadata is a map, and there's no guarantee | ||||||
|  | 		// that the Metadata attached to the context is created using our helper | ||||||
|  | 		// functions. | ||||||
|  | 		if strings.EqualFold(k, key) { | ||||||
|  | 			return copyOf(v) | ||||||
|  | 		} | ||||||
|  | 	} | ||||||
|  | 	return nil | ||||||
|  | } | ||||||
|  |  | ||||||
|  | // MustOutgoingContext returns the outgoing metadata in ctx. | ||||||
|  | func MustOutgoingContext(ctx context.Context) Metadata { | ||||||
|  | 	md, ok := FromOutgoingContext(ctx) | ||||||
|  | 	if !ok { | ||||||
|  | 		panic("missing metadata") | ||||||
|  | 	} | ||||||
|  | 	return md | ||||||
|  | } | ||||||
|  |  | ||||||
|  | // ValueFromOutgoingContext returns the metadata value corresponding to the metadata | ||||||
|  | // key from the incoming metadata if it exists. Keys are matched in a case insensitive | ||||||
|  | // manner. | ||||||
|  | func ValueFromOutgoingContext(ctx context.Context, key string) []string { | ||||||
|  | 	md, ok := ctx.Value(metadataOutgoingKey{}).(rawMetadata) | ||||||
|  | 	if !ok { | ||||||
|  | 		return nil | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	if v, ok := md.md[key]; ok { | ||||||
|  | 		return copyOf(v) | ||||||
|  | 	} | ||||||
|  | 	for k, v := range md.md { | ||||||
|  | 		// Case insensitive comparison: Metadata is a map, and there's no guarantee | ||||||
|  | 		// that the Metadata attached to the context is created using our helper | ||||||
|  | 		// functions. | ||||||
|  | 		if strings.EqualFold(k, key) { | ||||||
|  | 			return copyOf(v) | ||||||
|  | 		} | ||||||
|  | 	} | ||||||
|  | 	return nil | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func copyOf(v []string) []string { | ||||||
|  | 	vals := make([]string, len(v)) | ||||||
|  | 	copy(vals, v) | ||||||
|  | 	return vals | ||||||
|  | } | ||||||
|  |  | ||||||
|  | // FromOutgoingContext returns the outgoing metadata in ctx if it exists. | ||||||
|  | func FromOutgoingContext(ctx context.Context) (Metadata, bool) { | ||||||
|  | 	raw, ok := ctx.Value(metadataOutgoingKey{}).(rawMetadata) | ||||||
|  | 	if !ok { | ||||||
|  | 		return nil, false | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	metadataSize := len(raw.md) | ||||||
|  | 	for i := range raw.added { | ||||||
|  | 		metadataSize += len(raw.added[i]) / 2 | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	out := make(Metadata, metadataSize) | ||||||
|  | 	for k, v := range raw.md { | ||||||
|  | 		out[k] = copyOf(v) | ||||||
|  | 	} | ||||||
|  | 	for _, added := range raw.added { | ||||||
|  | 		if len(added)%2 == 1 { | ||||||
|  | 			panic(fmt.Sprintf("metadata: FromOutgoingContext got an odd number of input pairs for metadata: %d", len(added))) | ||||||
|  | 		} | ||||||
|  |  | ||||||
|  | 		for i := 0; i < len(added); i += 2 { | ||||||
|  | 			out[added[i]] = append(out[added[i]], added[i+1]) | ||||||
|  | 		} | ||||||
|  | 	} | ||||||
|  | 	return out, ok | ||||||
|  | } | ||||||
|  |  | ||||||
|  | type rawMetadata struct { | ||||||
|  | 	md    Metadata | ||||||
|  | 	added [][]string | ||||||
|  | } | ||||||
|  |  | ||||||
|  | // Iterator used to iterate over metadata with order | ||||||
|  | type Iterator struct { | ||||||
|  | 	md   Metadata | ||||||
|  | 	keys []string | ||||||
|  | 	cur  int | ||||||
|  | 	cnt  int | ||||||
|  | } | ||||||
|  |  | ||||||
|  | // Next advance iterator to next element | ||||||
|  | func (iter *Iterator) Next(k *string, v *[]string) bool { | ||||||
|  | 	if iter.cur+1 > iter.cnt { | ||||||
|  | 		return false | ||||||
|  | 	} | ||||||
|  |  | ||||||
|  | 	if k != nil && v != nil { | ||||||
|  | 		*k = iter.keys[iter.cur] | ||||||
|  | 		vv := iter.md[*k] | ||||||
|  | 		*v = make([]string, len(vv)) | ||||||
|  | 		copy(*v, vv) | ||||||
|  | 		iter.cur++ | ||||||
|  | 	} | ||||||
|  | 	return true | ||||||
|  | } | ||||||
|  |  | ||||||
|  | // Iterator returns the itarator for metadata in sorted order | ||||||
|  | func (md Metadata) Iterator() *Iterator { | ||||||
|  | 	iter := &Iterator{md: md, cnt: len(md)} | ||||||
|  | 	iter.keys = make([]string, 0, iter.cnt) | ||||||
|  | 	for k := range md { | ||||||
|  | 		iter.keys = append(iter.keys, k) | ||||||
|  | 	} | ||||||
|  | 	sort.Strings(iter.keys) | ||||||
|  | 	return iter | ||||||
|  | } | ||||||
|   | |||||||
| @@ -5,15 +5,6 @@ import ( | |||||||
| 	"testing" | 	"testing" | ||||||
| ) | ) | ||||||
|  |  | ||||||
| func TesSet(t *testing.T) { |  | ||||||
| 	md := Pairs("key1", "val1", "key2", "val2") |  | ||||||
| 	md.Set("key1", "val2", "val3") |  | ||||||
| 	v := md.GetJoined("X-Request-Id") |  | ||||||
| 	if v != "val2, val3" { |  | ||||||
| 		t.Fatal("set not works") |  | ||||||
| 	} |  | ||||||
| } |  | ||||||
|  |  | ||||||
| /* | /* | ||||||
| func TestAppendOutgoingContextModify(t *testing.T) { | func TestAppendOutgoingContextModify(t *testing.T) { | ||||||
| 	md := Pairs("key1", "val1") | 	md := Pairs("key1", "val1") | ||||||
| @@ -28,8 +19,8 @@ func TestAppendOutgoingContextModify(t *testing.T) { | |||||||
| func TestLowercase(t *testing.T) { | func TestLowercase(t *testing.T) { | ||||||
| 	md := New(1) | 	md := New(1) | ||||||
| 	md["x-request-id"] = []string{"12345"} | 	md["x-request-id"] = []string{"12345"} | ||||||
| 	v := md.GetJoined("X-Request-Id") | 	v, ok := md.GetJoined("X-Request-Id") | ||||||
| 	if v == "" { | 	if !ok || v == "" { | ||||||
| 		t.Fatalf("metadata invalid %#+v", md) | 		t.Fatalf("metadata invalid %#+v", md) | ||||||
| 	} | 	} | ||||||
| } | } | ||||||
| @@ -56,9 +47,33 @@ func TestMultipleUsage(t *testing.T) { | |||||||
| 	_ = omd | 	_ = omd | ||||||
| } | } | ||||||
|  |  | ||||||
|  | func TestMetadataSetMultiple(t *testing.T) { | ||||||
|  | 	md := New(4) | ||||||
|  | 	md.Set("key1", "val1", "key2", "val2") | ||||||
|  |  | ||||||
|  | 	if v, ok := md.GetJoined("key1"); !ok || v != "val1" { | ||||||
|  | 		t.Fatalf("invalid kv %#+v", md) | ||||||
|  | 	} | ||||||
|  | 	if v, ok := md.GetJoined("key2"); !ok || v != "val2" { | ||||||
|  | 		t.Fatalf("invalid kv %#+v", md) | ||||||
|  | 	} | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func TestAppend(t *testing.T) { | ||||||
|  | 	ctx := context.Background() | ||||||
|  | 	ctx = AppendIncomingContext(ctx, "key1", "val1", "key2", "val2") | ||||||
|  | 	md, ok := FromIncomingContext(ctx) | ||||||
|  | 	if !ok { | ||||||
|  | 		t.Fatal("metadata empty") | ||||||
|  | 	} | ||||||
|  | 	if _, ok := md.Get("key1"); !ok { | ||||||
|  | 		t.Fatal("key1 not found") | ||||||
|  | 	} | ||||||
|  | } | ||||||
|  |  | ||||||
| func TestPairs(t *testing.T) { | func TestPairs(t *testing.T) { | ||||||
| 	md := Pairs("key1", "val1", "key2", "val2") | 	md := Pairs("key1", "val1", "key2", "val2") | ||||||
| 	if v := md.Get("key1"); v == nil { | 	if _, ok := md.Get("key1"); !ok { | ||||||
| 		t.Fatal("key1 not found") | 		t.Fatal("key1 not found") | ||||||
| 	} | 	} | ||||||
| } | } | ||||||
| @@ -82,7 +97,7 @@ func TestPassing(t *testing.T) { | |||||||
| 	if !ok { | 	if !ok { | ||||||
| 		t.Fatalf("missing metadata from outgoing context") | 		t.Fatalf("missing metadata from outgoing context") | ||||||
| 	} | 	} | ||||||
| 	if v := md.Get("Key1"); v == nil || v[0] != "Val1" { | 	if v, ok := md.Get("Key1"); !ok || v[0] != "Val1" { | ||||||
| 		t.Fatalf("invalid metadata value %#+v", md) | 		t.Fatalf("invalid metadata value %#+v", md) | ||||||
| 	} | 	} | ||||||
| } | } | ||||||
| @@ -112,21 +127,21 @@ func TestIterator(t *testing.T) { | |||||||
| func TestMedataCanonicalKey(t *testing.T) { | func TestMedataCanonicalKey(t *testing.T) { | ||||||
| 	md := New(1) | 	md := New(1) | ||||||
| 	md.Set("x-request-id", "12345") | 	md.Set("x-request-id", "12345") | ||||||
| 	v := md.GetJoined("x-request-id") | 	v, ok := md.GetJoined("x-request-id") | ||||||
| 	if v == "" { | 	if !ok { | ||||||
| 		t.Fatalf("failed to get x-request-id") | 		t.Fatalf("failed to get x-request-id") | ||||||
| 	} else if v != "12345" { | 	} else if v != "12345" { | ||||||
| 		t.Fatalf("invalid metadata value: %s != %s", "12345", v) | 		t.Fatalf("invalid metadata value: %s != %s", "12345", v) | ||||||
| 	} | 	} | ||||||
|  |  | ||||||
| 	v = md.GetJoined("X-Request-Id") | 	v, ok = md.GetJoined("X-Request-Id") | ||||||
| 	if v == "" { | 	if !ok { | ||||||
| 		t.Fatalf("failed to get x-request-id") | 		t.Fatalf("failed to get x-request-id") | ||||||
| 	} else if v != "12345" { | 	} else if v != "12345" { | ||||||
| 		t.Fatalf("invalid metadata value: %s != %s", "12345", v) | 		t.Fatalf("invalid metadata value: %s != %s", "12345", v) | ||||||
| 	} | 	} | ||||||
| 	v = md.GetJoined("X-Request-ID") | 	v, ok = md.GetJoined("X-Request-ID") | ||||||
| 	if v == "" { | 	if !ok { | ||||||
| 		t.Fatalf("failed to get x-request-id") | 		t.Fatalf("failed to get x-request-id") | ||||||
| 	} else if v != "12345" { | 	} else if v != "12345" { | ||||||
| 		t.Fatalf("invalid metadata value: %s != %s", "12345", v) | 		t.Fatalf("invalid metadata value: %s != %s", "12345", v) | ||||||
| @@ -138,8 +153,8 @@ func TestMetadataSet(t *testing.T) { | |||||||
|  |  | ||||||
| 	md.Set("Key", "val") | 	md.Set("Key", "val") | ||||||
|  |  | ||||||
| 	val := md.GetJoined("Key") | 	val, ok := md.GetJoined("Key") | ||||||
| 	if val == "" { | 	if !ok { | ||||||
| 		t.Fatal("key Key not found") | 		t.Fatal("key Key not found") | ||||||
| 	} | 	} | ||||||
| 	if val != "val" { | 	if val != "val" { | ||||||
| @@ -154,8 +169,8 @@ func TestMetadataDelete(t *testing.T) { | |||||||
| 	} | 	} | ||||||
|  |  | ||||||
| 	md.Del("Baz") | 	md.Del("Baz") | ||||||
| 	v := md.Get("Baz") | 	_, ok := md.Get("Baz") | ||||||
| 	if v != nil { | 	if ok { | ||||||
| 		t.Fatal("key Baz not deleted") | 		t.Fatal("key Baz not deleted") | ||||||
| 	} | 	} | ||||||
| } | } | ||||||
| @@ -254,6 +269,20 @@ func TestNewOutgoingContext(t *testing.T) { | |||||||
| 	} | 	} | ||||||
| } | } | ||||||
|  |  | ||||||
|  | func TestAppendIncomingContext(t *testing.T) { | ||||||
|  | 	md := New(1) | ||||||
|  | 	md.Set("key1", "val1") | ||||||
|  | 	ctx := AppendIncomingContext(context.TODO(), "key2", "val2") | ||||||
|  |  | ||||||
|  | 	nmd, ok := FromIncomingContext(ctx) | ||||||
|  | 	if nmd == nil || !ok { | ||||||
|  | 		t.Fatal("AppendIncomingContext not works") | ||||||
|  | 	} | ||||||
|  | 	if v, ok := nmd.GetJoined("key2"); !ok || v != "val2" { | ||||||
|  | 		t.Fatal("AppendIncomingContext not works") | ||||||
|  | 	} | ||||||
|  | } | ||||||
|  |  | ||||||
| func TestAppendOutgoingContext(t *testing.T) { | func TestAppendOutgoingContext(t *testing.T) { | ||||||
| 	md := New(1) | 	md := New(1) | ||||||
| 	md.Set("key1", "val1") | 	md.Set("key1", "val1") | ||||||
| @@ -263,7 +292,7 @@ func TestAppendOutgoingContext(t *testing.T) { | |||||||
| 	if nmd == nil || !ok { | 	if nmd == nil || !ok { | ||||||
| 		t.Fatal("AppendOutgoingContext not works") | 		t.Fatal("AppendOutgoingContext not works") | ||||||
| 	} | 	} | ||||||
| 	if v := nmd.GetJoined("key2"); v != "val2" { | 	if v, ok := nmd.GetJoined("key2"); !ok || v != "val2" { | ||||||
| 		t.Fatal("AppendOutgoingContext not works") | 		t.Fatal("AppendOutgoingContext not works") | ||||||
| 	} | 	} | ||||||
| } | } | ||||||
|   | |||||||
| @@ -4,8 +4,8 @@ package meter | |||||||
| import ( | import ( | ||||||
| 	"io" | 	"io" | ||||||
| 	"sort" | 	"sort" | ||||||
|  | 	"strconv" | ||||||
| 	"strings" | 	"strings" | ||||||
| 	"sync" |  | ||||||
| 	"time" | 	"time" | ||||||
| ) | ) | ||||||
|  |  | ||||||
| @@ -49,11 +49,9 @@ type Meter interface { | |||||||
| 	Set(opts ...Option) Meter | 	Set(opts ...Option) Meter | ||||||
| 	// Histogram get or create histogram | 	// Histogram get or create histogram | ||||||
| 	Histogram(name string, labels ...string) Histogram | 	Histogram(name string, labels ...string) Histogram | ||||||
| 	// HistogramExt get or create histogram with specified quantiles |  | ||||||
| 	HistogramExt(name string, quantiles []float64, labels ...string) Histogram |  | ||||||
| 	// Summary get or create summary | 	// Summary get or create summary | ||||||
| 	Summary(name string, labels ...string) Summary | 	Summary(name string, labels ...string) Summary | ||||||
| 	// SummaryExt get or create summary with specified quantiles and window time | 	// SummaryExt get or create summary with spcified quantiles and window time | ||||||
| 	SummaryExt(name string, window time.Duration, quantiles []float64, labels ...string) Summary | 	SummaryExt(name string, window time.Duration, quantiles []float64, labels ...string) Summary | ||||||
| 	// Write writes metrics to io.Writer | 	// Write writes metrics to io.Writer | ||||||
| 	Write(w io.Writer, opts ...Option) error | 	Write(w io.Writer, opts ...Option) error | ||||||
| @@ -61,8 +59,6 @@ type Meter interface { | |||||||
| 	Options() Options | 	Options() Options | ||||||
| 	// String return meter type | 	// String return meter type | ||||||
| 	String() string | 	String() string | ||||||
| 	// Unregister metric name and drop all data |  | ||||||
| 	Unregister(name string, labels ...string) bool |  | ||||||
| } | } | ||||||
|  |  | ||||||
| // Counter is a counter | // Counter is a counter | ||||||
| @@ -84,11 +80,7 @@ type FloatCounter interface { | |||||||
|  |  | ||||||
| // Gauge is a float64 gauge | // Gauge is a float64 gauge | ||||||
| type Gauge interface { | type Gauge interface { | ||||||
| 	Add(float64) |  | ||||||
| 	Get() float64 | 	Get() float64 | ||||||
| 	Set(float64) |  | ||||||
| 	Dec() |  | ||||||
| 	Inc() |  | ||||||
| } | } | ||||||
|  |  | ||||||
| // Histogram is a histogram for non-negative values with automatically created buckets | // Histogram is a histogram for non-negative values with automatically created buckets | ||||||
| @@ -125,39 +117,6 @@ func BuildLabels(labels ...string) []string { | |||||||
| 	return labels | 	return labels | ||||||
| } | } | ||||||
|  |  | ||||||
| var spool = newStringsPool(500) |  | ||||||
|  |  | ||||||
| type stringsPool struct { |  | ||||||
| 	p *sync.Pool |  | ||||||
| 	c int |  | ||||||
| } |  | ||||||
|  |  | ||||||
| func newStringsPool(size int) *stringsPool { |  | ||||||
| 	p := &stringsPool{c: size} |  | ||||||
| 	p.p = &sync.Pool{ |  | ||||||
| 		New: func() interface{} { |  | ||||||
| 			return &strings.Builder{} |  | ||||||
| 		}, |  | ||||||
| 	} |  | ||||||
| 	return p |  | ||||||
| } |  | ||||||
|  |  | ||||||
| func (p *stringsPool) Cap() int { |  | ||||||
| 	return p.c |  | ||||||
| } |  | ||||||
|  |  | ||||||
| func (p *stringsPool) Get() *strings.Builder { |  | ||||||
| 	return p.p.Get().(*strings.Builder) |  | ||||||
| } |  | ||||||
|  |  | ||||||
| func (p *stringsPool) Put(b *strings.Builder) { |  | ||||||
| 	if b.Cap() > p.c { |  | ||||||
| 		return |  | ||||||
| 	} |  | ||||||
| 	b.Reset() |  | ||||||
| 	p.p.Put(b) |  | ||||||
| } |  | ||||||
|  |  | ||||||
| // BuildName used to combine metric with labels. | // BuildName used to combine metric with labels. | ||||||
| // If labels count is odd, drop last element | // If labels count is odd, drop last element | ||||||
| func BuildName(name string, labels ...string) string { | func BuildName(name string, labels ...string) string { | ||||||
| @@ -166,6 +125,8 @@ func BuildName(name string, labels ...string) string { | |||||||
| 	} | 	} | ||||||
|  |  | ||||||
| 	if len(labels) > 2 { | 	if len(labels) > 2 { | ||||||
|  | 		sort.Sort(byKey(labels)) | ||||||
|  |  | ||||||
| 		idx := 0 | 		idx := 0 | ||||||
| 		for { | 		for { | ||||||
| 			if labels[idx] == labels[idx+2] { | 			if labels[idx] == labels[idx+2] { | ||||||
| @@ -180,9 +141,7 @@ func BuildName(name string, labels ...string) string { | |||||||
| 		} | 		} | ||||||
| 	} | 	} | ||||||
|  |  | ||||||
| 	b := spool.Get() | 	var b strings.Builder | ||||||
| 	defer spool.Put(b) |  | ||||||
|  |  | ||||||
| 	_, _ = b.WriteString(name) | 	_, _ = b.WriteString(name) | ||||||
| 	_, _ = b.WriteRune('{') | 	_, _ = b.WriteRune('{') | ||||||
| 	for idx := 0; idx < len(labels); idx += 2 { | 	for idx := 0; idx < len(labels); idx += 2 { | ||||||
| @@ -190,9 +149,8 @@ func BuildName(name string, labels ...string) string { | |||||||
| 			_, _ = b.WriteRune(',') | 			_, _ = b.WriteRune(',') | ||||||
| 		} | 		} | ||||||
| 		_, _ = b.WriteString(labels[idx]) | 		_, _ = b.WriteString(labels[idx]) | ||||||
| 		_, _ = b.WriteString(`="`) | 		_, _ = b.WriteString(`=`) | ||||||
| 		_, _ = b.WriteString(labels[idx+1]) | 		_, _ = b.WriteString(strconv.Quote(labels[idx+1])) | ||||||
| 		_, _ = b.WriteRune('"') |  | ||||||
| 	} | 	} | ||||||
| 	_, _ = b.WriteRune('}') | 	_, _ = b.WriteRune('}') | ||||||
|  |  | ||||||
|   | |||||||
| @@ -50,12 +50,11 @@ func TestBuildName(t *testing.T) { | |||||||
| 	data := map[string][]string{ | 	data := map[string][]string{ | ||||||
| 		`my_metric{firstlabel="value2",zerolabel="value3"}`: { | 		`my_metric{firstlabel="value2",zerolabel="value3"}`: { | ||||||
| 			"my_metric", | 			"my_metric", | ||||||
| 			"firstlabel", "value2", | 			"zerolabel", "value3", "firstlabel", "value2", | ||||||
| 			"zerolabel", "value3", |  | ||||||
| 		}, | 		}, | ||||||
| 		`my_metric{broker="broker2",register="mdns",server="tcp"}`: { | 		`my_metric{broker="broker2",register="mdns",server="tcp"}`: { | ||||||
| 			"my_metric", | 			"my_metric", | ||||||
| 			"broker", "broker1", "broker", "broker2", "register", "mdns", "server", "http", "server", "tcp", | 			"broker", "broker1", "broker", "broker2", "server", "http", "server", "tcp", "register", "mdns", | ||||||
| 		}, | 		}, | ||||||
| 		`my_metric{aaa="aaa"}`: { | 		`my_metric{aaa="aaa"}`: { | ||||||
| 			"my_metric", | 			"my_metric", | ||||||
|   | |||||||
| @@ -28,10 +28,6 @@ func (r *noopMeter) Name() string { | |||||||
| 	return r.opts.Name | 	return r.opts.Name | ||||||
| } | } | ||||||
|  |  | ||||||
| func (r *noopMeter) Unregister(name string, labels ...string) bool { |  | ||||||
| 	return true |  | ||||||
| } |  | ||||||
|  |  | ||||||
| // Init initialize options | // Init initialize options | ||||||
| func (r *noopMeter) Init(opts ...Option) error { | func (r *noopMeter) Init(opts ...Option) error { | ||||||
| 	for _, o := range opts { | 	for _, o := range opts { | ||||||
| @@ -70,11 +66,6 @@ func (r *noopMeter) Histogram(_ string, labels ...string) Histogram { | |||||||
| 	return &noopHistogram{labels: labels} | 	return &noopHistogram{labels: labels} | ||||||
| } | } | ||||||
|  |  | ||||||
| // HistogramExt implements the Meter interface |  | ||||||
| func (r *noopMeter) HistogramExt(_ string, quantiles []float64, labels ...string) Histogram { |  | ||||||
| 	return &noopHistogram{labels: labels} |  | ||||||
| } |  | ||||||
|  |  | ||||||
| // Set implements the Meter interface | // Set implements the Meter interface | ||||||
| func (r *noopMeter) Set(opts ...Option) Meter { | func (r *noopMeter) Set(opts ...Option) Meter { | ||||||
| 	m := &noopMeter{opts: r.opts} | 	m := &noopMeter{opts: r.opts} | ||||||
| @@ -141,18 +132,6 @@ type noopGauge struct { | |||||||
| 	labels []string | 	labels []string | ||||||
| } | } | ||||||
|  |  | ||||||
| func (r *noopGauge) Add(float64) { |  | ||||||
| } |  | ||||||
|  |  | ||||||
| func (r *noopGauge) Set(float64) { |  | ||||||
| } |  | ||||||
|  |  | ||||||
| func (r *noopGauge) Inc() { |  | ||||||
| } |  | ||||||
|  |  | ||||||
| func (r *noopGauge) Dec() { |  | ||||||
| } |  | ||||||
|  |  | ||||||
| func (r *noopGauge) Get() float64 { | func (r *noopGauge) Get() float64 { | ||||||
| 	return 0 | 	return 0 | ||||||
| } | } | ||||||
|   | |||||||
| @@ -4,8 +4,6 @@ import ( | |||||||
| 	"context" | 	"context" | ||||||
| ) | ) | ||||||
|  |  | ||||||
| var DefaultQuantiles = []float64{.005, .01, .025, .05, .1, .25, .5, 1, 2.5, 5, 10} |  | ||||||
|  |  | ||||||
| // Option powers the configuration for metrics implementations: | // Option powers the configuration for metrics implementations: | ||||||
| type Option func(*Options) | type Option func(*Options) | ||||||
|  |  | ||||||
| @@ -25,8 +23,6 @@ type Options struct { | |||||||
| 	WriteProcessMetrics bool | 	WriteProcessMetrics bool | ||||||
| 	// WriteFDMetrics flag to write fd metrics | 	// WriteFDMetrics flag to write fd metrics | ||||||
| 	WriteFDMetrics bool | 	WriteFDMetrics bool | ||||||
| 	// Quantiles specifies buckets for histogram |  | ||||||
| 	Quantiles []float64 |  | ||||||
| } | } | ||||||
|  |  | ||||||
| // NewOptions prepares a set of options: | // NewOptions prepares a set of options: | ||||||
| @@ -65,12 +61,14 @@ func Address(value string) Option { | |||||||
| 	} | 	} | ||||||
| } | } | ||||||
|  |  | ||||||
| // Quantiles defines the desired spread of statistics for histogram metrics: | /* | ||||||
| func Quantiles(quantiles []float64) Option { | // TimingObjectives defines the desired spread of statistics for histogram / timing metrics: | ||||||
|  | func TimingObjectives(value map[float64]float64) Option { | ||||||
| 	return func(o *Options) { | 	return func(o *Options) { | ||||||
| 		o.Quantiles = quantiles | 		o.TimingObjectives = value | ||||||
| 	} | 	} | ||||||
| } | } | ||||||
|  | */ | ||||||
|  |  | ||||||
| // Labels add the meter labels | // Labels add the meter labels | ||||||
| func Labels(ls ...string) Option { | func Labels(ls ...string) Option { | ||||||
|   | |||||||
| @@ -91,7 +91,7 @@ func (p *bro) Connect(_ context.Context) error { return nil } | |||||||
| func (p *bro) Disconnect(_ context.Context) error { return nil } | func (p *bro) Disconnect(_ context.Context) error { return nil } | ||||||
|  |  | ||||||
| // NewMessage creates new message | // NewMessage creates new message | ||||||
| func (p *bro) NewMessage(_ context.Context, _ metadata.Metadata, _ interface{}, _ ...broker.MessageOption) (broker.Message, error) { | func (p *bro) NewMessage(_ context.Context, _ metadata.Metadata, _ interface{}, _ ...broker.PublishOption) (broker.Message, error) { | ||||||
| 	return nil, nil | 	return nil, nil | ||||||
| } | } | ||||||
|  |  | ||||||
|   | |||||||
| @@ -11,8 +11,8 @@ import ( | |||||||
| ) | ) | ||||||
|  |  | ||||||
| type httpProfile struct { | type httpProfile struct { | ||||||
| 	server  *http.Server | 	server *http.Server | ||||||
| 	mu      sync.Mutex | 	sync.Mutex | ||||||
| 	running bool | 	running bool | ||||||
| } | } | ||||||
|  |  | ||||||
| @@ -21,8 +21,8 @@ var DefaultAddress = ":6060" | |||||||
|  |  | ||||||
| // Start the profiler | // Start the profiler | ||||||
| func (h *httpProfile) Start() error { | func (h *httpProfile) Start() error { | ||||||
| 	h.mu.Lock() | 	h.Lock() | ||||||
| 	defer h.mu.Unlock() | 	defer h.Unlock() | ||||||
|  |  | ||||||
| 	if h.running { | 	if h.running { | ||||||
| 		return nil | 		return nil | ||||||
| @@ -30,9 +30,9 @@ func (h *httpProfile) Start() error { | |||||||
|  |  | ||||||
| 	go func() { | 	go func() { | ||||||
| 		if err := h.server.ListenAndServe(); err != nil { | 		if err := h.server.ListenAndServe(); err != nil { | ||||||
| 			h.mu.Lock() | 			h.Lock() | ||||||
| 			h.running = false | 			h.running = false | ||||||
| 			h.mu.Unlock() | 			h.Unlock() | ||||||
| 		} | 		} | ||||||
| 	}() | 	}() | ||||||
|  |  | ||||||
| @@ -43,8 +43,8 @@ func (h *httpProfile) Start() error { | |||||||
|  |  | ||||||
| // Stop the profiler | // Stop the profiler | ||||||
| func (h *httpProfile) Stop() error { | func (h *httpProfile) Stop() error { | ||||||
| 	h.mu.Lock() | 	h.Lock() | ||||||
| 	defer h.mu.Unlock() | 	defer h.Unlock() | ||||||
|  |  | ||||||
| 	if !h.running { | 	if !h.running { | ||||||
| 		return nil | 		return nil | ||||||
|   | |||||||
| @@ -17,7 +17,7 @@ type profiler struct { | |||||||
| 	cpuFile *os.File | 	cpuFile *os.File | ||||||
| 	memFile *os.File | 	memFile *os.File | ||||||
| 	opts    profile.Options | 	opts    profile.Options | ||||||
| 	mu      sync.Mutex | 	sync.Mutex | ||||||
| 	running bool | 	running bool | ||||||
| } | } | ||||||
|  |  | ||||||
| @@ -39,8 +39,8 @@ func (p *profiler) writeHeap(f *os.File) { | |||||||
| } | } | ||||||
|  |  | ||||||
| func (p *profiler) Start() error { | func (p *profiler) Start() error { | ||||||
| 	p.mu.Lock() | 	p.Lock() | ||||||
| 	defer p.mu.Unlock() | 	defer p.Unlock() | ||||||
|  |  | ||||||
| 	if p.running { | 	if p.running { | ||||||
| 		return nil | 		return nil | ||||||
| @@ -86,8 +86,8 @@ func (p *profiler) Start() error { | |||||||
| } | } | ||||||
|  |  | ||||||
| func (p *profiler) Stop() error { | func (p *profiler) Stop() error { | ||||||
| 	p.mu.Lock() | 	p.Lock() | ||||||
| 	defer p.mu.Unlock() | 	defer p.Unlock() | ||||||
|  |  | ||||||
| 	select { | 	select { | ||||||
| 	case <-p.exit: | 	case <-p.exit: | ||||||
|   | |||||||
| @@ -33,7 +33,7 @@ type memory struct { | |||||||
| 	records  map[string]services | 	records  map[string]services | ||||||
| 	watchers map[string]*watcher | 	watchers map[string]*watcher | ||||||
| 	opts     register.Options | 	opts     register.Options | ||||||
| 	mu       sync.RWMutex | 	sync.RWMutex | ||||||
| } | } | ||||||
|  |  | ||||||
| // services is a KV map with service name as the key and a map of records as the value | // services is a KV map with service name as the key and a map of records as the value | ||||||
| @@ -57,7 +57,7 @@ func (m *memory) ttlPrune() { | |||||||
| 	defer prune.Stop() | 	defer prune.Stop() | ||||||
|  |  | ||||||
| 	for range prune.C { | 	for range prune.C { | ||||||
| 		m.mu.Lock() | 		m.Lock() | ||||||
| 		for namespace, services := range m.records { | 		for namespace, services := range m.records { | ||||||
| 			for service, versions := range services { | 			for service, versions := range services { | ||||||
| 				for version, record := range versions { | 				for version, record := range versions { | ||||||
| @@ -72,24 +72,24 @@ func (m *memory) ttlPrune() { | |||||||
| 				} | 				} | ||||||
| 			} | 			} | ||||||
| 		} | 		} | ||||||
| 		m.mu.Unlock() | 		m.Unlock() | ||||||
| 	} | 	} | ||||||
| } | } | ||||||
|  |  | ||||||
| func (m *memory) sendEvent(r *register.Result) { | func (m *memory) sendEvent(r *register.Result) { | ||||||
| 	m.mu.RLock() | 	m.RLock() | ||||||
| 	watchers := make([]*watcher, 0, len(m.watchers)) | 	watchers := make([]*watcher, 0, len(m.watchers)) | ||||||
| 	for _, w := range m.watchers { | 	for _, w := range m.watchers { | ||||||
| 		watchers = append(watchers, w) | 		watchers = append(watchers, w) | ||||||
| 	} | 	} | ||||||
| 	m.mu.RUnlock() | 	m.RUnlock() | ||||||
|  |  | ||||||
| 	for _, w := range watchers { | 	for _, w := range watchers { | ||||||
| 		select { | 		select { | ||||||
| 		case <-w.exit: | 		case <-w.exit: | ||||||
| 			m.mu.Lock() | 			m.Lock() | ||||||
| 			delete(m.watchers, w.id) | 			delete(m.watchers, w.id) | ||||||
| 			m.mu.Unlock() | 			m.Unlock() | ||||||
| 		default: | 		default: | ||||||
| 			select { | 			select { | ||||||
| 			case w.res <- r: | 			case w.res <- r: | ||||||
| @@ -113,8 +113,8 @@ func (m *memory) Init(opts ...register.Option) error { | |||||||
| 	} | 	} | ||||||
|  |  | ||||||
| 	// add services | 	// add services | ||||||
| 	m.mu.Lock() | 	m.Lock() | ||||||
| 	defer m.mu.Unlock() | 	defer m.Unlock() | ||||||
|  |  | ||||||
| 	return nil | 	return nil | ||||||
| } | } | ||||||
| @@ -124,8 +124,8 @@ func (m *memory) Options() register.Options { | |||||||
| } | } | ||||||
|  |  | ||||||
| func (m *memory) Register(_ context.Context, s *register.Service, opts ...register.RegisterOption) error { | func (m *memory) Register(_ context.Context, s *register.Service, opts ...register.RegisterOption) error { | ||||||
| 	m.mu.Lock() | 	m.Lock() | ||||||
| 	defer m.mu.Unlock() | 	defer m.Unlock() | ||||||
|  |  | ||||||
| 	options := register.NewRegisterOptions(opts...) | 	options := register.NewRegisterOptions(opts...) | ||||||
|  |  | ||||||
| @@ -197,8 +197,8 @@ func (m *memory) Register(_ context.Context, s *register.Service, opts ...regist | |||||||
| } | } | ||||||
|  |  | ||||||
| func (m *memory) Deregister(ctx context.Context, s *register.Service, opts ...register.DeregisterOption) error { | func (m *memory) Deregister(ctx context.Context, s *register.Service, opts ...register.DeregisterOption) error { | ||||||
| 	m.mu.Lock() | 	m.Lock() | ||||||
| 	defer m.mu.Unlock() | 	defer m.Unlock() | ||||||
|  |  | ||||||
| 	options := register.NewDeregisterOptions(opts...) | 	options := register.NewDeregisterOptions(opts...) | ||||||
|  |  | ||||||
| @@ -264,9 +264,9 @@ func (m *memory) LookupService(ctx context.Context, name string, opts ...registe | |||||||
|  |  | ||||||
| 	// if it's a wildcard domain, return from all domains | 	// if it's a wildcard domain, return from all domains | ||||||
| 	if options.Namespace == register.WildcardNamespace { | 	if options.Namespace == register.WildcardNamespace { | ||||||
| 		m.mu.RLock() | 		m.RLock() | ||||||
| 		recs := m.records | 		recs := m.records | ||||||
| 		m.mu.RUnlock() | 		m.RUnlock() | ||||||
|  |  | ||||||
| 		var services []*register.Service | 		var services []*register.Service | ||||||
|  |  | ||||||
| @@ -286,8 +286,8 @@ func (m *memory) LookupService(ctx context.Context, name string, opts ...registe | |||||||
| 		return services, nil | 		return services, nil | ||||||
| 	} | 	} | ||||||
|  |  | ||||||
| 	m.mu.RLock() | 	m.RLock() | ||||||
| 	defer m.mu.RUnlock() | 	defer m.RUnlock() | ||||||
|  |  | ||||||
| 	// check the domain exists | 	// check the domain exists | ||||||
| 	services, ok := m.records[options.Namespace] | 	services, ok := m.records[options.Namespace] | ||||||
| @@ -319,9 +319,9 @@ func (m *memory) ListServices(ctx context.Context, opts ...register.ListOption) | |||||||
|  |  | ||||||
| 	// if it's a wildcard domain, list from all domains | 	// if it's a wildcard domain, list from all domains | ||||||
| 	if options.Namespace == register.WildcardNamespace { | 	if options.Namespace == register.WildcardNamespace { | ||||||
| 		m.mu.RLock() | 		m.RLock() | ||||||
| 		recs := m.records | 		recs := m.records | ||||||
| 		m.mu.RUnlock() | 		m.RUnlock() | ||||||
|  |  | ||||||
| 		var services []*register.Service | 		var services []*register.Service | ||||||
|  |  | ||||||
| @@ -336,8 +336,8 @@ func (m *memory) ListServices(ctx context.Context, opts ...register.ListOption) | |||||||
| 		return services, nil | 		return services, nil | ||||||
| 	} | 	} | ||||||
|  |  | ||||||
| 	m.mu.RLock() | 	m.RLock() | ||||||
| 	defer m.mu.RUnlock() | 	defer m.RUnlock() | ||||||
|  |  | ||||||
| 	// ensure the domain exists | 	// ensure the domain exists | ||||||
| 	services, ok := m.records[options.Namespace] | 	services, ok := m.records[options.Namespace] | ||||||
| @@ -371,9 +371,9 @@ func (m *memory) Watch(ctx context.Context, opts ...register.WatchOption) (regis | |||||||
| 		wo:   wo, | 		wo:   wo, | ||||||
| 	} | 	} | ||||||
|  |  | ||||||
| 	m.mu.Lock() | 	m.Lock() | ||||||
| 	m.watchers[w.id] = w | 	m.watchers[w.id] = w | ||||||
| 	m.mu.Unlock() | 	m.Unlock() | ||||||
|  |  | ||||||
| 	return w, nil | 	return w, nil | ||||||
| } | } | ||||||
|   | |||||||
| @@ -69,8 +69,7 @@ type Service struct { | |||||||
| type Node struct { | type Node struct { | ||||||
| 	Metadata metadata.Metadata `json:"metadata,omitempty"` | 	Metadata metadata.Metadata `json:"metadata,omitempty"` | ||||||
| 	ID       string            `json:"id,omitempty"` | 	ID       string            `json:"id,omitempty"` | ||||||
| 	// Address also prefixed with scheme like grpc://xx.xx.xx.xx:1234 | 	Address  string            `json:"address,omitempty"` | ||||||
| 	Address string `json:"address,omitempty"` |  | ||||||
| } | } | ||||||
|  |  | ||||||
| // Option func signature | // Option func signature | ||||||
|   | |||||||
| @@ -51,13 +51,13 @@ func (r *rpcHandler) Options() HandlerOptions { | |||||||
| } | } | ||||||
|  |  | ||||||
| type noopServer struct { | type noopServer struct { | ||||||
| 	h          Handler | 	h        Handler | ||||||
| 	wg         *sync.WaitGroup | 	wg       *sync.WaitGroup | ||||||
| 	rsvc       *register.Service | 	rsvc     *register.Service | ||||||
| 	handlers   map[string]Handler | 	handlers map[string]Handler | ||||||
| 	exit       chan chan error | 	exit     chan chan error | ||||||
| 	opts       Options | 	opts     Options | ||||||
| 	mu         sync.RWMutex | 	sync.RWMutex | ||||||
| 	registered bool | 	registered bool | ||||||
| 	started    bool | 	started    bool | ||||||
| } | } | ||||||
| @@ -125,10 +125,10 @@ func (n *noopServer) String() string { | |||||||
|  |  | ||||||
| //nolint:gocyclo | //nolint:gocyclo | ||||||
| func (n *noopServer) Register() error { | func (n *noopServer) Register() error { | ||||||
| 	n.mu.RLock() | 	n.RLock() | ||||||
| 	rsvc := n.rsvc | 	rsvc := n.rsvc | ||||||
| 	config := n.opts | 	config := n.opts | ||||||
| 	n.mu.RUnlock() | 	n.RUnlock() | ||||||
|  |  | ||||||
| 	// if service already filled, reuse it and return early | 	// if service already filled, reuse it and return early | ||||||
| 	if rsvc != nil { | 	if rsvc != nil { | ||||||
| @@ -144,9 +144,9 @@ func (n *noopServer) Register() error { | |||||||
| 		return err | 		return err | ||||||
| 	} | 	} | ||||||
|  |  | ||||||
| 	n.mu.RLock() | 	n.RLock() | ||||||
| 	registered := n.registered | 	registered := n.registered | ||||||
| 	n.mu.RUnlock() | 	n.RUnlock() | ||||||
|  |  | ||||||
| 	if !registered { | 	if !registered { | ||||||
| 		if config.Logger.V(logger.InfoLevel) { | 		if config.Logger.V(logger.InfoLevel) { | ||||||
| @@ -164,8 +164,8 @@ func (n *noopServer) Register() error { | |||||||
| 		return nil | 		return nil | ||||||
| 	} | 	} | ||||||
|  |  | ||||||
| 	n.mu.Lock() | 	n.Lock() | ||||||
| 	defer n.mu.Unlock() | 	defer n.Unlock() | ||||||
|  |  | ||||||
| 	n.registered = true | 	n.registered = true | ||||||
| 	if cacheService { | 	if cacheService { | ||||||
| @@ -178,9 +178,9 @@ func (n *noopServer) Register() error { | |||||||
| func (n *noopServer) Deregister() error { | func (n *noopServer) Deregister() error { | ||||||
| 	var err error | 	var err error | ||||||
|  |  | ||||||
| 	n.mu.RLock() | 	n.RLock() | ||||||
| 	config := n.opts | 	config := n.opts | ||||||
| 	n.mu.RUnlock() | 	n.RUnlock() | ||||||
|  |  | ||||||
| 	service, err := NewRegisterService(n) | 	service, err := NewRegisterService(n) | ||||||
| 	if err != nil { | 	if err != nil { | ||||||
| @@ -195,29 +195,29 @@ func (n *noopServer) Deregister() error { | |||||||
| 		return err | 		return err | ||||||
| 	} | 	} | ||||||
|  |  | ||||||
| 	n.mu.Lock() | 	n.Lock() | ||||||
| 	n.rsvc = nil | 	n.rsvc = nil | ||||||
|  |  | ||||||
| 	if !n.registered { | 	if !n.registered { | ||||||
| 		n.mu.Unlock() | 		n.Unlock() | ||||||
| 		return nil | 		return nil | ||||||
| 	} | 	} | ||||||
|  |  | ||||||
| 	n.registered = false | 	n.registered = false | ||||||
|  |  | ||||||
| 	n.mu.Unlock() | 	n.Unlock() | ||||||
| 	return nil | 	return nil | ||||||
| } | } | ||||||
|  |  | ||||||
| //nolint:gocyclo | //nolint:gocyclo | ||||||
| func (n *noopServer) Start() error { | func (n *noopServer) Start() error { | ||||||
| 	n.mu.RLock() | 	n.RLock() | ||||||
| 	if n.started { | 	if n.started { | ||||||
| 		n.mu.RUnlock() | 		n.RUnlock() | ||||||
| 		return nil | 		return nil | ||||||
| 	} | 	} | ||||||
| 	config := n.Options() | 	config := n.Options() | ||||||
| 	n.mu.RUnlock() | 	n.RUnlock() | ||||||
|  |  | ||||||
| 	// use 127.0.0.1 to avoid scan of all network interfaces | 	// use 127.0.0.1 to avoid scan of all network interfaces | ||||||
| 	addr, err := maddr.Extract("127.0.0.1") | 	addr, err := maddr.Extract("127.0.0.1") | ||||||
| @@ -235,11 +235,11 @@ func (n *noopServer) Start() error { | |||||||
| 		config.Logger.Info(n.opts.Context, "server [noop] Listening on "+config.Address) | 		config.Logger.Info(n.opts.Context, "server [noop] Listening on "+config.Address) | ||||||
| 	} | 	} | ||||||
|  |  | ||||||
| 	n.mu.Lock() | 	n.Lock() | ||||||
| 	if len(config.Advertise) == 0 { | 	if len(config.Advertise) == 0 { | ||||||
| 		config.Advertise = config.Address | 		config.Advertise = config.Address | ||||||
| 	} | 	} | ||||||
| 	n.mu.Unlock() | 	n.Unlock() | ||||||
|  |  | ||||||
| 	// use RegisterCheck func before register | 	// use RegisterCheck func before register | ||||||
| 	// nolint: nestif | 	// nolint: nestif | ||||||
| @@ -273,9 +273,9 @@ func (n *noopServer) Start() error { | |||||||
| 			select { | 			select { | ||||||
| 			// register self on interval | 			// register self on interval | ||||||
| 			case <-t.C: | 			case <-t.C: | ||||||
| 				n.mu.RLock() | 				n.RLock() | ||||||
| 				registered := n.registered | 				registered := n.registered | ||||||
| 				n.mu.RUnlock() | 				n.RUnlock() | ||||||
| 				rerr := config.RegisterCheck(config.Context) | 				rerr := config.RegisterCheck(config.Context) | ||||||
| 				// nolint: nestif | 				// nolint: nestif | ||||||
| 				if rerr != nil && registered { | 				if rerr != nil && registered { | ||||||
| @@ -332,29 +332,29 @@ func (n *noopServer) Start() error { | |||||||
| 	}() | 	}() | ||||||
|  |  | ||||||
| 	// mark the server as started | 	// mark the server as started | ||||||
| 	n.mu.Lock() | 	n.Lock() | ||||||
| 	n.started = true | 	n.started = true | ||||||
| 	n.mu.Unlock() | 	n.Unlock() | ||||||
|  |  | ||||||
| 	return nil | 	return nil | ||||||
| } | } | ||||||
|  |  | ||||||
| func (n *noopServer) Stop() error { | func (n *noopServer) Stop() error { | ||||||
| 	n.mu.RLock() | 	n.RLock() | ||||||
| 	if !n.started { | 	if !n.started { | ||||||
| 		n.mu.RUnlock() | 		n.RUnlock() | ||||||
| 		return nil | 		return nil | ||||||
| 	} | 	} | ||||||
| 	n.mu.RUnlock() | 	n.RUnlock() | ||||||
|  |  | ||||||
| 	ch := make(chan error) | 	ch := make(chan error) | ||||||
| 	n.exit <- ch | 	n.exit <- ch | ||||||
|  |  | ||||||
| 	err := <-ch | 	err := <-ch | ||||||
| 	n.mu.Lock() | 	n.Lock() | ||||||
| 	n.rsvc = nil | 	n.rsvc = nil | ||||||
| 	n.started = false | 	n.started = false | ||||||
| 	n.mu.Unlock() | 	n.Unlock() | ||||||
|  |  | ||||||
| 	return err | 	return err | ||||||
| } | } | ||||||
|   | |||||||
							
								
								
									
										20
									
								
								service.go
									
									
									
									
									
								
							
							
						
						
									
										20
									
								
								service.go
									
									
									
									
									
								
							| @@ -96,9 +96,9 @@ func RegisterHandler(s server.Server, h interface{}, opts ...server.HandlerOptio | |||||||
| } | } | ||||||
|  |  | ||||||
| type service struct { | type service struct { | ||||||
| 	done    chan struct{} | 	done chan struct{} | ||||||
| 	opts    Options | 	opts Options | ||||||
| 	mu      sync.RWMutex | 	sync.RWMutex | ||||||
| 	stopped bool | 	stopped bool | ||||||
| } | } | ||||||
|  |  | ||||||
| @@ -321,9 +321,9 @@ func (s *service) Health() bool { | |||||||
| func (s *service) Start() error { | func (s *service) Start() error { | ||||||
| 	var err error | 	var err error | ||||||
|  |  | ||||||
| 	s.mu.RLock() | 	s.RLock() | ||||||
| 	config := s.opts | 	config := s.opts | ||||||
| 	s.mu.RUnlock() | 	s.RUnlock() | ||||||
|  |  | ||||||
| 	for _, cfg := range s.opts.Configs { | 	for _, cfg := range s.opts.Configs { | ||||||
| 		if cfg.Options().Struct == nil { | 		if cfg.Options().Struct == nil { | ||||||
| @@ -380,9 +380,9 @@ func (s *service) Start() error { | |||||||
| } | } | ||||||
|  |  | ||||||
| func (s *service) Stop() error { | func (s *service) Stop() error { | ||||||
| 	s.mu.RLock() | 	s.RLock() | ||||||
| 	config := s.opts | 	config := s.opts | ||||||
| 	s.mu.RUnlock() | 	s.RUnlock() | ||||||
|  |  | ||||||
| 	if config.Loggers[0].V(logger.InfoLevel) { | 	if config.Loggers[0].V(logger.InfoLevel) { | ||||||
| 		config.Loggers[0].Info(s.opts.Context, fmt.Sprintf("stoppping [service] %s", s.Name())) | 		config.Loggers[0].Info(s.opts.Context, fmt.Sprintf("stoppping [service] %s", s.Name())) | ||||||
| @@ -457,13 +457,13 @@ func (s *service) Run() error { | |||||||
| // notifyShutdown marks the service as stopped and closes the done channel. | // notifyShutdown marks the service as stopped and closes the done channel. | ||||||
| // It ensures the channel is closed only once, preventing multiple closures. | // It ensures the channel is closed only once, preventing multiple closures. | ||||||
| func (s *service) notifyShutdown() { | func (s *service) notifyShutdown() { | ||||||
| 	s.mu.Lock() | 	s.Lock() | ||||||
| 	if s.stopped { | 	if s.stopped { | ||||||
| 		s.mu.Unlock() | 		s.Unlock() | ||||||
| 		return | 		return | ||||||
| 	} | 	} | ||||||
| 	s.stopped = true | 	s.stopped = true | ||||||
| 	s.mu.Unlock() | 	s.Unlock() | ||||||
|  |  | ||||||
| 	close(s.done) | 	close(s.done) | ||||||
| } | } | ||||||
|   | |||||||
| @@ -139,7 +139,7 @@ func (n *noopStore) fnExists(ctx context.Context, _ string, _ ...ExistsOption) e | |||||||
| 		return ctx.Err() | 		return ctx.Err() | ||||||
| 	default: | 	default: | ||||||
| 	} | 	} | ||||||
| 	return ErrNotFound | 	return nil | ||||||
| } | } | ||||||
|  |  | ||||||
| func (n *noopStore) Write(ctx context.Context, key string, val interface{}, opts ...WriteOption) error { | func (n *noopStore) Write(ctx context.Context, key string, val interface{}, opts ...WriteOption) error { | ||||||
|   | |||||||
| @@ -2,7 +2,6 @@ package store | |||||||
|  |  | ||||||
| import ( | import ( | ||||||
| 	"context" | 	"context" | ||||||
| 	"errors" |  | ||||||
| 	"testing" | 	"testing" | ||||||
| ) | ) | ||||||
|  |  | ||||||
| @@ -26,8 +25,7 @@ func TestHook(t *testing.T) { | |||||||
| 		t.Fatal(err) | 		t.Fatal(err) | ||||||
| 	} | 	} | ||||||
|  |  | ||||||
| 	err := s.Exists(context.TODO(), "test") | 	if err := s.Exists(context.TODO(), "test"); err != nil { | ||||||
| 	if !errors.Is(err, ErrNotFound) { |  | ||||||
| 		t.Fatal(err) | 		t.Fatal(err) | ||||||
| 	} | 	} | ||||||
|  |  | ||||||
|   | |||||||
| @@ -9,7 +9,7 @@ type memorySync struct { | |||||||
| 	locks   map[string]*memoryLock | 	locks   map[string]*memoryLock | ||||||
| 	options Options | 	options Options | ||||||
|  |  | ||||||
| 	mu gosync.RWMutex | 	mtx gosync.RWMutex | ||||||
| } | } | ||||||
|  |  | ||||||
| type memoryLock struct { | type memoryLock struct { | ||||||
| @@ -74,7 +74,7 @@ func (m *memorySync) Options() Options { | |||||||
|  |  | ||||||
| func (m *memorySync) Lock(id string, opts ...LockOption) error { | func (m *memorySync) Lock(id string, opts ...LockOption) error { | ||||||
| 	// lock our access | 	// lock our access | ||||||
| 	m.mu.Lock() | 	m.mtx.Lock() | ||||||
|  |  | ||||||
| 	var options LockOptions | 	var options LockOptions | ||||||
| 	for _, o := range opts { | 	for _, o := range opts { | ||||||
| @@ -90,11 +90,11 @@ func (m *memorySync) Lock(id string, opts ...LockOption) error { | |||||||
| 			release: make(chan bool), | 			release: make(chan bool), | ||||||
| 		} | 		} | ||||||
| 		// unlock | 		// unlock | ||||||
| 		m.mu.Unlock() | 		m.mtx.Unlock() | ||||||
| 		return nil | 		return nil | ||||||
| 	} | 	} | ||||||
|  |  | ||||||
| 	m.mu.Unlock() | 	m.mtx.Unlock() | ||||||
|  |  | ||||||
| 	// set wait time | 	// set wait time | ||||||
| 	var wait <-chan time.Time | 	var wait <-chan time.Time | ||||||
| @@ -124,12 +124,12 @@ lockLoop: | |||||||
| 		// wait for the lock to be released | 		// wait for the lock to be released | ||||||
| 		select { | 		select { | ||||||
| 		case <-lk.release: | 		case <-lk.release: | ||||||
| 			m.mu.Lock() | 			m.mtx.Lock() | ||||||
|  |  | ||||||
| 			// someone locked before us | 			// someone locked before us | ||||||
| 			lk, ok = m.locks[id] | 			lk, ok = m.locks[id] | ||||||
| 			if ok { | 			if ok { | ||||||
| 				m.mu.Unlock() | 				m.mtx.Unlock() | ||||||
| 				continue | 				continue | ||||||
| 			} | 			} | ||||||
|  |  | ||||||
| @@ -141,7 +141,7 @@ lockLoop: | |||||||
| 				release: make(chan bool), | 				release: make(chan bool), | ||||||
| 			} | 			} | ||||||
|  |  | ||||||
| 			m.mu.Unlock() | 			m.mtx.Unlock() | ||||||
|  |  | ||||||
| 			break lockLoop | 			break lockLoop | ||||||
| 		case <-ttl: | 		case <-ttl: | ||||||
| @@ -160,8 +160,8 @@ lockLoop: | |||||||
| } | } | ||||||
|  |  | ||||||
| func (m *memorySync) Unlock(id string) error { | func (m *memorySync) Unlock(id string) error { | ||||||
| 	m.mu.Lock() | 	m.mtx.Lock() | ||||||
| 	defer m.mu.Unlock() | 	defer m.mtx.Unlock() | ||||||
|  |  | ||||||
| 	lk, ok := m.locks[id] | 	lk, ok := m.locks[id] | ||||||
| 	// no lock exists | 	// no lock exists | ||||||
|   | |||||||
| @@ -46,10 +46,6 @@ func (s memoryStringer) String() string { | |||||||
| 	return s.s | 	return s.s | ||||||
| } | } | ||||||
|  |  | ||||||
| func (t *Tracer) Enabled() bool { |  | ||||||
| 	return t.opts.Enabled |  | ||||||
| } |  | ||||||
|  |  | ||||||
| func (t *Tracer) Flush(_ context.Context) error { | func (t *Tracer) Flush(_ context.Context) error { | ||||||
| 	return nil | 	return nil | ||||||
| } | } | ||||||
|   | |||||||
| @@ -4,7 +4,7 @@ import ( | |||||||
| 	"context" | 	"context" | ||||||
| 	"time" | 	"time" | ||||||
|  |  | ||||||
| 	"github.com/google/uuid" | 	"go.unistack.org/micro/v4/util/id" | ||||||
| ) | ) | ||||||
|  |  | ||||||
| var _ Tracer = (*noopTracer)(nil) | var _ Tracer = (*noopTracer)(nil) | ||||||
| @@ -18,12 +18,6 @@ func (t *noopTracer) Spans() []Span { | |||||||
| 	return t.spans | 	return t.spans | ||||||
| } | } | ||||||
|  |  | ||||||
| var uuidNil = uuid.Nil.String() |  | ||||||
|  |  | ||||||
| func (t *noopTracer) Enabled() bool { |  | ||||||
| 	return t.opts.Enabled |  | ||||||
| } |  | ||||||
|  |  | ||||||
| func (t *noopTracer) Start(ctx context.Context, name string, opts ...SpanOption) (context.Context, Span) { | func (t *noopTracer) Start(ctx context.Context, name string, opts ...SpanOption) (context.Context, Span) { | ||||||
| 	options := NewSpanOptions(opts...) | 	options := NewSpanOptions(opts...) | ||||||
| 	span := &noopSpan{ | 	span := &noopSpan{ | ||||||
| @@ -34,8 +28,8 @@ func (t *noopTracer) Start(ctx context.Context, name string, opts ...SpanOption) | |||||||
| 		labels:    options.Labels, | 		labels:    options.Labels, | ||||||
| 		kind:      options.Kind, | 		kind:      options.Kind, | ||||||
| 	} | 	} | ||||||
| 	span.spanID.s = uuidNil | 	span.spanID.s, _ = id.New() | ||||||
| 	span.traceID.s = uuidNil | 	span.traceID.s, _ = id.New() | ||||||
| 	if span.ctx == nil { | 	if span.ctx == nil { | ||||||
| 		span.ctx = context.Background() | 		span.ctx = context.Background() | ||||||
| 	} | 	} | ||||||
|   | |||||||
| @@ -142,8 +142,6 @@ type Options struct { | |||||||
| 	Name string | 	Name string | ||||||
| 	// ContextAttrFuncs contains funcs that provides tracing | 	// ContextAttrFuncs contains funcs that provides tracing | ||||||
| 	ContextAttrFuncs []ContextAttrFunc | 	ContextAttrFuncs []ContextAttrFunc | ||||||
| 	// Enabled specify trace status |  | ||||||
| 	Enabled bool |  | ||||||
| } | } | ||||||
|  |  | ||||||
| // Option func signature | // Option func signature | ||||||
| @@ -183,7 +181,6 @@ func NewOptions(opts ...Option) Options { | |||||||
| 		Logger:           logger.DefaultLogger, | 		Logger:           logger.DefaultLogger, | ||||||
| 		Context:          context.Background(), | 		Context:          context.Background(), | ||||||
| 		ContextAttrFuncs: DefaultContextAttrFuncs, | 		ContextAttrFuncs: DefaultContextAttrFuncs, | ||||||
| 		Enabled:          true, |  | ||||||
| 	} | 	} | ||||||
| 	for _, o := range opts { | 	for _, o := range opts { | ||||||
| 		o(&options) | 		o(&options) | ||||||
| @@ -197,10 +194,3 @@ func Name(n string) Option { | |||||||
| 		o.Name = n | 		o.Name = n | ||||||
| 	} | 	} | ||||||
| } | } | ||||||
|  |  | ||||||
| // Disabled disable tracer |  | ||||||
| func Disabled(b bool) Option { |  | ||||||
| 	return func(o *Options) { |  | ||||||
| 		o.Enabled = !b |  | ||||||
| 	} |  | ||||||
| } |  | ||||||
|   | |||||||
| @@ -29,10 +29,10 @@ type ContextAttrFunc func(ctx context.Context) []interface{} | |||||||
| func init() { | func init() { | ||||||
| 	logger.DefaultContextAttrFuncs = append(logger.DefaultContextAttrFuncs, | 	logger.DefaultContextAttrFuncs = append(logger.DefaultContextAttrFuncs, | ||||||
| 		func(ctx context.Context) []interface{} { | 		func(ctx context.Context) []interface{} { | ||||||
| 			if sp, ok := SpanFromContext(ctx); ok && sp != nil && sp.IsRecording() { | 			if span, ok := SpanFromContext(ctx); ok { | ||||||
| 				return []interface{}{ | 				return []interface{}{ | ||||||
| 					TraceIDKey, sp.TraceID(), | 					TraceIDKey, span.TraceID(), | ||||||
| 					SpanIDKey, sp.SpanID(), | 					SpanIDKey, span.SpanID(), | ||||||
| 				} | 				} | ||||||
| 			} | 			} | ||||||
| 			return nil | 			return nil | ||||||
| @@ -51,8 +51,6 @@ type Tracer interface { | |||||||
| 	// Extract(ctx context.Context) | 	// Extract(ctx context.Context) | ||||||
| 	// Flush flushes spans | 	// Flush flushes spans | ||||||
| 	Flush(ctx context.Context) error | 	Flush(ctx context.Context) error | ||||||
| 	// Enabled returns tracer status |  | ||||||
| 	Enabled() bool |  | ||||||
| } | } | ||||||
|  |  | ||||||
| type Span interface { | type Span interface { | ||||||
|   | |||||||
| @@ -1,16 +1,13 @@ | |||||||
| package buffer | package buffer | ||||||
|  |  | ||||||
| import ( | import "io" | ||||||
| 	"fmt" |  | ||||||
| 	"io" |  | ||||||
| ) |  | ||||||
|  |  | ||||||
| var _ interface { | var _ interface { | ||||||
| 	io.ReadCloser | 	io.ReadCloser | ||||||
| 	io.ReadSeeker | 	io.ReadSeeker | ||||||
| } = (*SeekerBuffer)(nil) | } = (*SeekerBuffer)(nil) | ||||||
|  |  | ||||||
| // SeekerBuffer is a ReadWriteCloser that supports seeking. It's intended to | // Buffer is a ReadWriteCloser that supports seeking. It's intended to | ||||||
| // replicate the functionality of bytes.Buffer that I use in my projects. | // replicate the functionality of bytes.Buffer that I use in my projects. | ||||||
| // | // | ||||||
| // Note that the seeking is limited to the read marker; all writes are | // Note that the seeking is limited to the read marker; all writes are | ||||||
| @@ -26,7 +23,6 @@ func NewSeekerBuffer(data []byte) *SeekerBuffer { | |||||||
| 	} | 	} | ||||||
| } | } | ||||||
|  |  | ||||||
| // Read reads up to len(p) bytes into p from the current read position. |  | ||||||
| func (b *SeekerBuffer) Read(p []byte) (int, error) { | func (b *SeekerBuffer) Read(p []byte) (int, error) { | ||||||
| 	if b.pos >= int64(len(b.data)) { | 	if b.pos >= int64(len(b.data)) { | ||||||
| 		return 0, io.EOF | 		return 0, io.EOF | ||||||
| @@ -34,51 +30,29 @@ func (b *SeekerBuffer) Read(p []byte) (int, error) { | |||||||
|  |  | ||||||
| 	n := copy(p, b.data[b.pos:]) | 	n := copy(p, b.data[b.pos:]) | ||||||
| 	b.pos += int64(n) | 	b.pos += int64(n) | ||||||
|  |  | ||||||
| 	return n, nil | 	return n, nil | ||||||
| } | } | ||||||
|  |  | ||||||
| // Write appends the contents of p to the end of the buffer. It does not affect the read position. |  | ||||||
| func (b *SeekerBuffer) Write(p []byte) (int, error) { | func (b *SeekerBuffer) Write(p []byte) (int, error) { | ||||||
| 	if len(p) == 0 { |  | ||||||
| 		return 0, nil |  | ||||||
| 	} |  | ||||||
|  |  | ||||||
| 	b.data = append(b.data, p...) | 	b.data = append(b.data, p...) | ||||||
|  |  | ||||||
| 	return len(p), nil | 	return len(p), nil | ||||||
| } | } | ||||||
|  |  | ||||||
| // Seek sets the offset for the next Read operation. | // Seek sets the read pointer to pos. | ||||||
| // The offset is interpreted according to whence: |  | ||||||
| // - io.SeekStart: relative to the beginning of the buffer |  | ||||||
| // - io.SeekCurrent: relative to the current position |  | ||||||
| // - io.SeekEnd: relative to the end of the buffer |  | ||||||
| // |  | ||||||
| // Returns an error if the resulting position is negative or if whence is invalid. |  | ||||||
| func (b *SeekerBuffer) Seek(offset int64, whence int) (int64, error) { | func (b *SeekerBuffer) Seek(offset int64, whence int) (int64, error) { | ||||||
| 	var newPos int64 |  | ||||||
|  |  | ||||||
| 	switch whence { | 	switch whence { | ||||||
| 	case io.SeekStart: | 	case io.SeekStart: | ||||||
| 		newPos = offset | 		b.pos = offset | ||||||
| 	case io.SeekEnd: | 	case io.SeekEnd: | ||||||
| 		newPos = int64(len(b.data)) + offset | 		b.pos = int64(len(b.data)) + offset | ||||||
| 	case io.SeekCurrent: | 	case io.SeekCurrent: | ||||||
| 		newPos = b.pos + offset | 		b.pos += offset | ||||||
| 	default: |  | ||||||
| 		return 0, fmt.Errorf("invalid whence: %d", whence) |  | ||||||
| 	} | 	} | ||||||
|  |  | ||||||
| 	if newPos < 0 { |  | ||||||
| 		return 0, fmt.Errorf("invalid seek: resulting position %d is negative", newPos) |  | ||||||
| 	} |  | ||||||
|  |  | ||||||
| 	b.pos = newPos |  | ||||||
| 	return b.pos, nil | 	return b.pos, nil | ||||||
| } | } | ||||||
|  |  | ||||||
| // Rewind resets the read position to 0. | // Rewind resets the read pointer to 0. | ||||||
| func (b *SeekerBuffer) Rewind() error { | func (b *SeekerBuffer) Rewind() error { | ||||||
| 	if _, err := b.Seek(0, io.SeekStart); err != nil { | 	if _, err := b.Seek(0, io.SeekStart); err != nil { | ||||||
| 		return err | 		return err | ||||||
| @@ -93,24 +67,12 @@ func (b *SeekerBuffer) Close() error { | |||||||
| 	return nil | 	return nil | ||||||
| } | } | ||||||
|  |  | ||||||
| // Reset clears all the data out of the buffer and sets the read position to 0. |  | ||||||
| func (b *SeekerBuffer) Reset() { |  | ||||||
| 	b.data = nil |  | ||||||
| 	b.pos = 0 |  | ||||||
| } |  | ||||||
|  |  | ||||||
| // Len returns the length of data remaining to be read. | // Len returns the length of data remaining to be read. | ||||||
| func (b *SeekerBuffer) Len() int { | func (b *SeekerBuffer) Len() int { | ||||||
| 	if b.pos >= int64(len(b.data)) { |  | ||||||
| 		return 0 |  | ||||||
| 	} |  | ||||||
| 	return len(b.data[b.pos:]) | 	return len(b.data[b.pos:]) | ||||||
| } | } | ||||||
|  |  | ||||||
| // Bytes returns the underlying bytes from the current position. | // Bytes returns the underlying bytes from the current position. | ||||||
| func (b *SeekerBuffer) Bytes() []byte { | func (b *SeekerBuffer) Bytes() []byte { | ||||||
| 	if b.pos >= int64(len(b.data)) { |  | ||||||
| 		return []byte{} |  | ||||||
| 	} |  | ||||||
| 	return b.data[b.pos:] | 	return b.data[b.pos:] | ||||||
| } | } | ||||||
|   | |||||||
| @@ -2,384 +2,54 @@ package buffer | |||||||
|  |  | ||||||
| import ( | import ( | ||||||
| 	"fmt" | 	"fmt" | ||||||
| 	"io" | 	"strings" | ||||||
| 	"testing" | 	"testing" | ||||||
|  |  | ||||||
| 	"github.com/stretchr/testify/require" |  | ||||||
| ) | ) | ||||||
|  |  | ||||||
| func TestNewSeekerBuffer(t *testing.T) { | func noErrorT(t *testing.T, err error) { | ||||||
| 	input := []byte{'a', 'b', 'c', 'd', 'e'} | 	if nil != err { | ||||||
| 	expected := &SeekerBuffer{data: []byte{'a', 'b', 'c', 'd', 'e'}, pos: 0} | 		t.Fatalf("%s", err) | ||||||
| 	require.Equal(t, expected, NewSeekerBuffer(input)) |  | ||||||
| } |  | ||||||
|  |  | ||||||
| func TestSeekerBuffer_Read(t *testing.T) { |  | ||||||
| 	tests := []struct { |  | ||||||
| 		name         string |  | ||||||
| 		data         []byte |  | ||||||
| 		initPos      int64 |  | ||||||
| 		readBuf      []byte |  | ||||||
| 		expectedN    int |  | ||||||
| 		expectedData []byte |  | ||||||
| 		expectedErr  error |  | ||||||
| 		expectedPos  int64 |  | ||||||
| 	}{ |  | ||||||
| 		{ |  | ||||||
| 			name:         "read with empty buffer", |  | ||||||
| 			data:         []byte("hello"), |  | ||||||
| 			initPos:      0, |  | ||||||
| 			readBuf:      []byte{}, |  | ||||||
| 			expectedN:    0, |  | ||||||
| 			expectedData: []byte{}, |  | ||||||
| 			expectedErr:  nil, |  | ||||||
| 			expectedPos:  0, |  | ||||||
| 		}, |  | ||||||
| 		{ |  | ||||||
| 			name:         "read with nil buffer", |  | ||||||
| 			data:         []byte("hello"), |  | ||||||
| 			initPos:      0, |  | ||||||
| 			readBuf:      nil, |  | ||||||
| 			expectedN:    0, |  | ||||||
| 			expectedData: nil, |  | ||||||
| 			expectedErr:  nil, |  | ||||||
| 			expectedPos:  0, |  | ||||||
| 		}, |  | ||||||
| 		{ |  | ||||||
| 			name:         "read full buffer", |  | ||||||
| 			data:         []byte("hello"), |  | ||||||
| 			initPos:      0, |  | ||||||
| 			readBuf:      make([]byte, 5), |  | ||||||
| 			expectedN:    5, |  | ||||||
| 			expectedData: []byte("hello"), |  | ||||||
| 			expectedErr:  nil, |  | ||||||
| 			expectedPos:  5, |  | ||||||
| 		}, |  | ||||||
| 		{ |  | ||||||
| 			name:         "read partial buffer", |  | ||||||
| 			data:         []byte("hello"), |  | ||||||
| 			initPos:      2, |  | ||||||
| 			readBuf:      make([]byte, 2), |  | ||||||
| 			expectedN:    2, |  | ||||||
| 			expectedData: []byte("ll"), |  | ||||||
| 			expectedErr:  nil, |  | ||||||
| 			expectedPos:  4, |  | ||||||
| 		}, |  | ||||||
| 		{ |  | ||||||
| 			name:         "read after end", |  | ||||||
| 			data:         []byte("hello"), |  | ||||||
| 			initPos:      5, |  | ||||||
| 			readBuf:      make([]byte, 5), |  | ||||||
| 			expectedN:    0, |  | ||||||
| 			expectedData: make([]byte, 5), |  | ||||||
| 			expectedErr:  io.EOF, |  | ||||||
| 			expectedPos:  5, |  | ||||||
| 		}, |  | ||||||
| 	} |  | ||||||
|  |  | ||||||
| 	for _, tt := range tests { |  | ||||||
| 		t.Run(tt.name, func(t *testing.T) { |  | ||||||
| 			sb := NewSeekerBuffer(tt.data) |  | ||||||
| 			sb.pos = tt.initPos |  | ||||||
|  |  | ||||||
| 			n, err := sb.Read(tt.readBuf) |  | ||||||
|  |  | ||||||
| 			if tt.expectedErr != nil { |  | ||||||
| 				require.Equal(t, err, tt.expectedErr) |  | ||||||
| 			} else { |  | ||||||
| 				require.NoError(t, err) |  | ||||||
| 			} |  | ||||||
|  |  | ||||||
| 			require.Equal(t, tt.expectedN, n) |  | ||||||
| 			require.Equal(t, tt.expectedData, tt.readBuf) |  | ||||||
| 			require.Equal(t, tt.expectedPos, sb.pos) |  | ||||||
| 		}) |  | ||||||
| 	} | 	} | ||||||
| } | } | ||||||
|  |  | ||||||
| func TestSeekerBuffer_Write(t *testing.T) { | func boolT(t *testing.T, cond bool, s ...string) { | ||||||
| 	tests := []struct { | 	if !cond { | ||||||
| 		name         string | 		what := strings.Join(s, ", ") | ||||||
| 		initialData  []byte | 		if len(what) > 0 { | ||||||
| 		initialPos   int64 | 			what = ": " + what | ||||||
| 		writeData    []byte | 		} | ||||||
| 		expectedData []byte | 		t.Fatalf("assert.Bool failed%s", what) | ||||||
| 		expectedN    int |  | ||||||
| 	}{ |  | ||||||
| 		{ |  | ||||||
| 			name:         "write empty slice", |  | ||||||
| 			initialData:  []byte("data"), |  | ||||||
| 			initialPos:   0, |  | ||||||
| 			writeData:    []byte{}, |  | ||||||
| 			expectedData: []byte("data"), |  | ||||||
| 			expectedN:    0, |  | ||||||
| 		}, |  | ||||||
| 		{ |  | ||||||
| 			name:         "write nil slice", |  | ||||||
| 			initialData:  []byte("data"), |  | ||||||
| 			initialPos:   0, |  | ||||||
| 			writeData:    nil, |  | ||||||
| 			expectedData: []byte("data"), |  | ||||||
| 			expectedN:    0, |  | ||||||
| 		}, |  | ||||||
| 		{ |  | ||||||
| 			name:         "write to empty buffer", |  | ||||||
| 			initialData:  nil, |  | ||||||
| 			initialPos:   0, |  | ||||||
| 			writeData:    []byte("abc"), |  | ||||||
| 			expectedData: []byte("abc"), |  | ||||||
| 			expectedN:    3, |  | ||||||
| 		}, |  | ||||||
| 		{ |  | ||||||
| 			name:         "write to existing buffer", |  | ||||||
| 			initialData:  []byte("hello"), |  | ||||||
| 			initialPos:   0, |  | ||||||
| 			writeData:    []byte(" world"), |  | ||||||
| 			expectedData: []byte("hello world"), |  | ||||||
| 			expectedN:    6, |  | ||||||
| 		}, |  | ||||||
| 		{ |  | ||||||
| 			name:         "write after read", |  | ||||||
| 			initialData:  []byte("abc"), |  | ||||||
| 			initialPos:   2, |  | ||||||
| 			writeData:    []byte("XYZ"), |  | ||||||
| 			expectedData: []byte("abcXYZ"), |  | ||||||
| 			expectedN:    3, |  | ||||||
| 		}, |  | ||||||
| 	} |  | ||||||
|  |  | ||||||
| 	for _, tt := range tests { |  | ||||||
| 		t.Run(tt.name, func(t *testing.T) { |  | ||||||
| 			sb := NewSeekerBuffer(tt.initialData) |  | ||||||
| 			sb.pos = tt.initialPos |  | ||||||
|  |  | ||||||
| 			n, err := sb.Write(tt.writeData) |  | ||||||
| 			require.NoError(t, err) |  | ||||||
| 			require.Equal(t, tt.expectedN, n) |  | ||||||
| 			require.Equal(t, tt.expectedData, sb.data) |  | ||||||
| 			require.Equal(t, tt.initialPos, sb.pos) |  | ||||||
| 		}) |  | ||||||
| 	} | 	} | ||||||
| } | } | ||||||
|  |  | ||||||
| func TestSeekerBuffer_Seek(t *testing.T) { | func TestSeeking(t *testing.T) { | ||||||
| 	tests := []struct { | 	partA := []byte("hello, ") | ||||||
| 		name        string | 	partB := []byte("world!") | ||||||
| 		initialData []byte |  | ||||||
| 		initialPos  int64 |  | ||||||
| 		offset      int64 |  | ||||||
| 		whence      int |  | ||||||
| 		expectedPos int64 |  | ||||||
| 		expectedErr error |  | ||||||
| 	}{ |  | ||||||
| 		{ |  | ||||||
| 			name:        "seek with invalid whence", |  | ||||||
| 			initialData: []byte("abcdef"), |  | ||||||
| 			initialPos:  0, |  | ||||||
| 			offset:      1, |  | ||||||
| 			whence:      12345, |  | ||||||
| 			expectedPos: 0, |  | ||||||
| 			expectedErr: fmt.Errorf("invalid whence: %d", 12345), |  | ||||||
| 		}, |  | ||||||
| 		{ |  | ||||||
| 			name:        "seek negative from start", |  | ||||||
| 			initialData: []byte("abcdef"), |  | ||||||
| 			initialPos:  0, |  | ||||||
| 			offset:      -1, |  | ||||||
| 			whence:      io.SeekStart, |  | ||||||
| 			expectedPos: 0, |  | ||||||
| 			expectedErr: fmt.Errorf("invalid seek: resulting position %d is negative", -1), |  | ||||||
| 		}, |  | ||||||
| 		{ |  | ||||||
| 			name:        "seek from start to 0", |  | ||||||
| 			initialData: []byte("abcdef"), |  | ||||||
| 			initialPos:  0, |  | ||||||
| 			offset:      0, |  | ||||||
| 			whence:      io.SeekStart, |  | ||||||
| 			expectedPos: 0, |  | ||||||
| 			expectedErr: nil, |  | ||||||
| 		}, |  | ||||||
| 		{ |  | ||||||
| 			name:        "seek from start to 3", |  | ||||||
| 			initialData: []byte("abcdef"), |  | ||||||
| 			initialPos:  0, |  | ||||||
| 			offset:      3, |  | ||||||
| 			whence:      io.SeekStart, |  | ||||||
| 			expectedPos: 3, |  | ||||||
| 			expectedErr: nil, |  | ||||||
| 		}, |  | ||||||
| 		{ |  | ||||||
| 			name:        "seek from end to -1 (last byte)", |  | ||||||
| 			initialData: []byte("abcdef"), |  | ||||||
| 			initialPos:  0, |  | ||||||
| 			offset:      -1, |  | ||||||
| 			whence:      io.SeekEnd, |  | ||||||
| 			expectedPos: 5, |  | ||||||
| 			expectedErr: nil, |  | ||||||
| 		}, |  | ||||||
| 		{ |  | ||||||
| 			name:        "seek from current forward", |  | ||||||
| 			initialData: []byte("abcdef"), |  | ||||||
| 			initialPos:  2, |  | ||||||
| 			offset:      2, |  | ||||||
| 			whence:      io.SeekCurrent, |  | ||||||
| 			expectedPos: 4, |  | ||||||
| 			expectedErr: nil, |  | ||||||
| 		}, |  | ||||||
| 		{ |  | ||||||
| 			name:        "seek from current backward", |  | ||||||
| 			initialData: []byte("abcdef"), |  | ||||||
| 			initialPos:  4, |  | ||||||
| 			offset:      -2, |  | ||||||
| 			whence:      io.SeekCurrent, |  | ||||||
| 			expectedPos: 2, |  | ||||||
| 			expectedErr: nil, |  | ||||||
| 		}, |  | ||||||
| 		{ |  | ||||||
| 			name:        "seek to end exactly", |  | ||||||
| 			initialData: []byte("abcdef"), |  | ||||||
| 			initialPos:  0, |  | ||||||
| 			offset:      0, |  | ||||||
| 			whence:      io.SeekEnd, |  | ||||||
| 			expectedPos: 6, |  | ||||||
| 			expectedErr: nil, |  | ||||||
| 		}, |  | ||||||
| 		{ |  | ||||||
| 			name:        "seek to out of range", |  | ||||||
| 			initialData: []byte("abcdef"), |  | ||||||
| 			initialPos:  0, |  | ||||||
| 			offset:      2, |  | ||||||
| 			whence:      io.SeekEnd, |  | ||||||
| 			expectedPos: 8, |  | ||||||
| 			expectedErr: nil, |  | ||||||
| 		}, |  | ||||||
| 	} |  | ||||||
|  |  | ||||||
| 	for _, tt := range tests { | 	buf := NewSeekerBuffer(partA) | ||||||
| 		t.Run(tt.name, func(t *testing.T) { |  | ||||||
| 			sb := NewSeekerBuffer(tt.initialData) |  | ||||||
| 			sb.pos = tt.initialPos |  | ||||||
|  |  | ||||||
| 			newPos, err := sb.Seek(tt.offset, tt.whence) | 	boolT(t, buf.Len() == len(partA), fmt.Sprintf("on init: have length %d, want length %d", buf.Len(), len(partA))) | ||||||
|  |  | ||||||
| 			if tt.expectedErr != nil { | 	b := make([]byte, 32) | ||||||
| 				require.Equal(t, tt.expectedErr, err) |  | ||||||
| 			} else { | 	n, err := buf.Read(b) | ||||||
| 				require.NoError(t, err) | 	noErrorT(t, err) | ||||||
| 				require.Equal(t, tt.expectedPos, newPos) | 	boolT(t, buf.Len() == 0, fmt.Sprintf("after reading 1: have length %d, want length 0", buf.Len())) | ||||||
| 				require.Equal(t, tt.expectedPos, sb.pos) | 	boolT(t, n == len(partA), fmt.Sprintf("after reading 2: have length %d, want length %d", n, len(partA))) | ||||||
| 			} |  | ||||||
| 		}) | 	n, err = buf.Write(partB) | ||||||
| 	} | 	noErrorT(t, err) | ||||||
| } | 	boolT(t, n == len(partB), fmt.Sprintf("after writing: have length %d, want length %d", n, len(partB))) | ||||||
|  |  | ||||||
| func TestSeekerBuffer_Rewind(t *testing.T) { | 	n, err = buf.Read(b) | ||||||
| 	buf := NewSeekerBuffer([]byte("hello world")) | 	noErrorT(t, err) | ||||||
| 	buf.pos = 4 | 	boolT(t, buf.Len() == 0, fmt.Sprintf("after rereading 1: have length %d, want length 0", buf.Len())) | ||||||
|  | 	boolT(t, n == len(partB), fmt.Sprintf("after rereading 2: have length %d, want length %d", n, len(partB))) | ||||||
| 	require.NoError(t, buf.Rewind()) |  | ||||||
| 	require.Equal(t, []byte("hello world"), buf.data) | 	partsLen := len(partA) + len(partB) | ||||||
| 	require.Equal(t, int64(0), buf.pos) | 	_ = buf.Rewind() | ||||||
| } | 	boolT(t, buf.Len() == partsLen, fmt.Sprintf("after rewinding: have length %d, want length %d", buf.Len(), partsLen)) | ||||||
|  |  | ||||||
| func TestSeekerBuffer_Close(t *testing.T) { | 	buf.Close() | ||||||
| 	buf := NewSeekerBuffer([]byte("hello world")) | 	boolT(t, buf.Len() == 0, fmt.Sprintf("after closing, have length %d, want length 0", buf.Len())) | ||||||
| 	buf.pos = 2 |  | ||||||
|  |  | ||||||
| 	require.NoError(t, buf.Close()) |  | ||||||
| 	require.Nil(t, buf.data) |  | ||||||
| 	require.Equal(t, int64(0), buf.pos) |  | ||||||
| } |  | ||||||
|  |  | ||||||
| func TestSeekerBuffer_Reset(t *testing.T) { |  | ||||||
| 	buf := NewSeekerBuffer([]byte("hello world")) |  | ||||||
| 	buf.pos = 2 |  | ||||||
|  |  | ||||||
| 	buf.Reset() |  | ||||||
| 	require.Nil(t, buf.data) |  | ||||||
| 	require.Equal(t, int64(0), buf.pos) |  | ||||||
| } |  | ||||||
|  |  | ||||||
| func TestSeekerBuffer_Len(t *testing.T) { |  | ||||||
| 	tests := []struct { |  | ||||||
| 		name     string |  | ||||||
| 		data     []byte |  | ||||||
| 		pos      int64 |  | ||||||
| 		expected int |  | ||||||
| 	}{ |  | ||||||
| 		{ |  | ||||||
| 			name:     "full buffer", |  | ||||||
| 			data:     []byte("abcde"), |  | ||||||
| 			pos:      0, |  | ||||||
| 			expected: 5, |  | ||||||
| 		}, |  | ||||||
| 		{ |  | ||||||
| 			name:     "partial read", |  | ||||||
| 			data:     []byte("abcde"), |  | ||||||
| 			pos:      2, |  | ||||||
| 			expected: 3, |  | ||||||
| 		}, |  | ||||||
| 		{ |  | ||||||
| 			name:     "fully read", |  | ||||||
| 			data:     []byte("abcde"), |  | ||||||
| 			pos:      5, |  | ||||||
| 			expected: 0, |  | ||||||
| 		}, |  | ||||||
| 		{ |  | ||||||
| 			name:     "pos > len", |  | ||||||
| 			data:     []byte("abcde"), |  | ||||||
| 			pos:      10, |  | ||||||
| 			expected: 0, |  | ||||||
| 		}, |  | ||||||
| 	} |  | ||||||
|  |  | ||||||
| 	for _, tt := range tests { |  | ||||||
| 		t.Run(tt.name, func(t *testing.T) { |  | ||||||
| 			buf := NewSeekerBuffer(tt.data) |  | ||||||
| 			buf.pos = tt.pos |  | ||||||
| 			require.Equal(t, tt.expected, buf.Len()) |  | ||||||
| 		}) |  | ||||||
| 	} |  | ||||||
| } |  | ||||||
|  |  | ||||||
| func TestSeekerBuffer_Bytes(t *testing.T) { |  | ||||||
| 	tests := []struct { |  | ||||||
| 		name     string |  | ||||||
| 		data     []byte |  | ||||||
| 		pos      int64 |  | ||||||
| 		expected []byte |  | ||||||
| 	}{ |  | ||||||
| 		{ |  | ||||||
| 			name:     "start of buffer", |  | ||||||
| 			data:     []byte("abcde"), |  | ||||||
| 			pos:      0, |  | ||||||
| 			expected: []byte("abcde"), |  | ||||||
| 		}, |  | ||||||
| 		{ |  | ||||||
| 			name:     "middle of buffer", |  | ||||||
| 			data:     []byte("abcde"), |  | ||||||
| 			pos:      2, |  | ||||||
| 			expected: []byte("cde"), |  | ||||||
| 		}, |  | ||||||
| 		{ |  | ||||||
| 			name:     "end of buffer", |  | ||||||
| 			data:     []byte("abcde"), |  | ||||||
| 			pos:      5, |  | ||||||
| 			expected: []byte{}, |  | ||||||
| 		}, |  | ||||||
| 		{ |  | ||||||
| 			name:     "pos beyond end", |  | ||||||
| 			data:     []byte("abcde"), |  | ||||||
| 			pos:      10, |  | ||||||
| 			expected: []byte{}, |  | ||||||
| 		}, |  | ||||||
| 	} |  | ||||||
|  |  | ||||||
| 	for _, tt := range tests { |  | ||||||
| 		t.Run(tt.name, func(t *testing.T) { |  | ||||||
| 			buf := NewSeekerBuffer(tt.data) |  | ||||||
| 			buf.pos = tt.pos |  | ||||||
| 			require.Equal(t, tt.expected, buf.Bytes()) |  | ||||||
| 		}) |  | ||||||
| 	} |  | ||||||
| } | } | ||||||
|   | |||||||
| @@ -137,7 +137,7 @@ type cache struct { | |||||||
|  |  | ||||||
| 	opts Options | 	opts Options | ||||||
|  |  | ||||||
| 	mu sync.RWMutex | 	sync.RWMutex | ||||||
| } | } | ||||||
|  |  | ||||||
| type cacheEntry struct { | type cacheEntry struct { | ||||||
| @@ -171,7 +171,7 @@ func (c *cache) put(req string, res string) { | |||||||
| 		ttl = c.opts.MaxCacheTTL | 		ttl = c.opts.MaxCacheTTL | ||||||
| 	} | 	} | ||||||
|  |  | ||||||
| 	c.mu.Lock() | 	c.Lock() | ||||||
| 	if c.entries == nil { | 	if c.entries == nil { | ||||||
| 		c.entries = make(map[string]cacheEntry) | 		c.entries = make(map[string]cacheEntry) | ||||||
| 	} | 	} | ||||||
| @@ -207,7 +207,7 @@ func (c *cache) put(req string, res string) { | |||||||
| 	} | 	} | ||||||
|  |  | ||||||
| 	c.opts.Meter.Counter(semconv.CacheItemsTotal, "type", "dns").Inc() | 	c.opts.Meter.Counter(semconv.CacheItemsTotal, "type", "dns").Inc() | ||||||
| 	c.mu.Unlock() | 	c.Unlock() | ||||||
| } | } | ||||||
|  |  | ||||||
| func (c *cache) get(req string) (res string) { | func (c *cache) get(req string) (res string) { | ||||||
| @@ -219,8 +219,8 @@ func (c *cache) get(req string) (res string) { | |||||||
| 		return "" | 		return "" | ||||||
| 	} | 	} | ||||||
|  |  | ||||||
| 	c.mu.RLock() | 	c.RLock() | ||||||
| 	defer c.mu.RUnlock() | 	defer c.RUnlock() | ||||||
|  |  | ||||||
| 	if c.entries == nil { | 	if c.entries == nil { | ||||||
| 		return "" | 		return "" | ||||||
|   | |||||||
| @@ -20,7 +20,7 @@ type dnsConn struct { | |||||||
| 	ibuf bytes.Buffer | 	ibuf bytes.Buffer | ||||||
| 	obuf bytes.Buffer | 	obuf bytes.Buffer | ||||||
|  |  | ||||||
| 	mu sync.Mutex | 	sync.Mutex | ||||||
| } | } | ||||||
|  |  | ||||||
| type roundTripper func(ctx context.Context, req string) (res string, err error) | type roundTripper func(ctx context.Context, req string) (res string, err error) | ||||||
| @@ -42,15 +42,15 @@ func (c *dnsConn) Read(b []byte) (n int, err error) { | |||||||
| } | } | ||||||
|  |  | ||||||
| func (c *dnsConn) Write(b []byte) (n int, err error) { | func (c *dnsConn) Write(b []byte) (n int, err error) { | ||||||
| 	c.mu.Lock() | 	c.Lock() | ||||||
| 	defer c.mu.Unlock() | 	defer c.Unlock() | ||||||
| 	return c.ibuf.Write(b) | 	return c.ibuf.Write(b) | ||||||
| } | } | ||||||
|  |  | ||||||
| func (c *dnsConn) Close() error { | func (c *dnsConn) Close() error { | ||||||
| 	c.mu.Lock() | 	c.Lock() | ||||||
| 	cancel := c.cancel | 	cancel := c.cancel | ||||||
| 	c.mu.Unlock() | 	c.Unlock() | ||||||
|  |  | ||||||
| 	if cancel != nil { | 	if cancel != nil { | ||||||
| 		cancel() | 		cancel() | ||||||
| @@ -78,9 +78,9 @@ func (c *dnsConn) SetDeadline(t time.Time) error { | |||||||
| } | } | ||||||
|  |  | ||||||
| func (c *dnsConn) SetReadDeadline(t time.Time) error { | func (c *dnsConn) SetReadDeadline(t time.Time) error { | ||||||
| 	c.mu.Lock() | 	c.Lock() | ||||||
| 	c.deadline = t | 	c.deadline = t | ||||||
| 	c.mu.Unlock() | 	c.Unlock() | ||||||
| 	return nil | 	return nil | ||||||
| } | } | ||||||
|  |  | ||||||
| @@ -90,8 +90,8 @@ func (c *dnsConn) SetWriteDeadline(_ time.Time) error { | |||||||
| } | } | ||||||
|  |  | ||||||
| func (c *dnsConn) drainBuffers(b []byte) (string, int, error) { | func (c *dnsConn) drainBuffers(b []byte) (string, int, error) { | ||||||
| 	c.mu.Lock() | 	c.Lock() | ||||||
| 	defer c.mu.Unlock() | 	defer c.Unlock() | ||||||
|  |  | ||||||
| 	// drain the output buffer | 	// drain the output buffer | ||||||
| 	if c.obuf.Len() > 0 { | 	if c.obuf.Len() > 0 { | ||||||
| @@ -119,8 +119,8 @@ func (c *dnsConn) drainBuffers(b []byte) (string, int, error) { | |||||||
| } | } | ||||||
|  |  | ||||||
| func (c *dnsConn) fillBuffer(b []byte, str string) (int, error) { | func (c *dnsConn) fillBuffer(b []byte, str string) (int, error) { | ||||||
| 	c.mu.Lock() | 	c.Lock() | ||||||
| 	defer c.mu.Unlock() | 	defer c.Unlock() | ||||||
| 	c.obuf.WriteByte(byte(len(str) >> 8)) | 	c.obuf.WriteByte(byte(len(str) >> 8)) | ||||||
| 	c.obuf.WriteByte(byte(len(str))) | 	c.obuf.WriteByte(byte(len(str))) | ||||||
| 	c.obuf.WriteString(str) | 	c.obuf.WriteString(str) | ||||||
| @@ -128,8 +128,8 @@ func (c *dnsConn) fillBuffer(b []byte, str string) (int, error) { | |||||||
| } | } | ||||||
|  |  | ||||||
| func (c *dnsConn) childContext() (context.Context, context.CancelFunc) { | func (c *dnsConn) childContext() (context.Context, context.CancelFunc) { | ||||||
| 	c.mu.Lock() | 	c.Lock() | ||||||
| 	defer c.mu.Unlock() | 	defer c.Unlock() | ||||||
| 	if c.ctx == nil { | 	if c.ctx == nil { | ||||||
| 		c.ctx, c.cancel = context.WithCancel(context.Background()) | 		c.ctx, c.cancel = context.WithCancel(context.Background()) | ||||||
| 	} | 	} | ||||||
|   | |||||||
| @@ -52,7 +52,7 @@ type clientTracer struct { | |||||||
| 	tr          tracer.Tracer | 	tr          tracer.Tracer | ||||||
| 	activeHooks map[string]context.Context | 	activeHooks map[string]context.Context | ||||||
| 	root        tracer.Span | 	root        tracer.Span | ||||||
| 	mu          sync.Mutex | 	mtx         sync.Mutex | ||||||
| } | } | ||||||
|  |  | ||||||
| func NewClientTrace(ctx context.Context, tr tracer.Tracer) *httptrace.ClientTrace { | func NewClientTrace(ctx context.Context, tr tracer.Tracer) *httptrace.ClientTrace { | ||||||
| @@ -83,8 +83,8 @@ func NewClientTrace(ctx context.Context, tr tracer.Tracer) *httptrace.ClientTrac | |||||||
| } | } | ||||||
|  |  | ||||||
| func (ct *clientTracer) start(hook, spanName string, attrs ...interface{}) { | func (ct *clientTracer) start(hook, spanName string, attrs ...interface{}) { | ||||||
| 	ct.mu.Lock() | 	ct.mtx.Lock() | ||||||
| 	defer ct.mu.Unlock() | 	defer ct.mtx.Unlock() | ||||||
|  |  | ||||||
| 	if hookCtx, found := ct.activeHooks[hook]; !found { | 	if hookCtx, found := ct.activeHooks[hook]; !found { | ||||||
| 		var sp tracer.Span | 		var sp tracer.Span | ||||||
| @@ -104,8 +104,8 @@ func (ct *clientTracer) start(hook, spanName string, attrs ...interface{}) { | |||||||
| } | } | ||||||
|  |  | ||||||
| func (ct *clientTracer) end(hook string, err error, attrs ...interface{}) { | func (ct *clientTracer) end(hook string, err error, attrs ...interface{}) { | ||||||
| 	ct.mu.Lock() | 	ct.mtx.Lock() | ||||||
| 	defer ct.mu.Unlock() | 	defer ct.mtx.Unlock() | ||||||
| 	if ctx, ok := ct.activeHooks[hook]; ok { // nolint:nestif | 	if ctx, ok := ct.activeHooks[hook]; ok { // nolint:nestif | ||||||
| 		if span, ok := tracer.SpanFromContext(ctx); ok { | 		if span, ok := tracer.SpanFromContext(ctx); ok { | ||||||
| 			if err != nil { | 			if err != nil { | ||||||
| @@ -136,8 +136,8 @@ func (ct *clientTracer) getParentContext(hook string) context.Context { | |||||||
| } | } | ||||||
|  |  | ||||||
| func (ct *clientTracer) span(hook string) (tracer.Span, bool) { | func (ct *clientTracer) span(hook string) (tracer.Span, bool) { | ||||||
| 	ct.mu.Lock() | 	ct.mtx.Lock() | ||||||
| 	defer ct.mu.Unlock() | 	defer ct.mtx.Unlock() | ||||||
| 	if ctx, ok := ct.activeHooks[hook]; ok { | 	if ctx, ok := ct.activeHooks[hook]; ok { | ||||||
| 		return tracer.SpanFromContext(ctx) | 		return tracer.SpanFromContext(ctx) | ||||||
| 	} | 	} | ||||||
|   | |||||||
| @@ -2,8 +2,12 @@ package id | |||||||
|  |  | ||||||
| import ( | import ( | ||||||
| 	"crypto/rand" | 	"crypto/rand" | ||||||
|  | 	"encoding/binary" | ||||||
| 	"errors" | 	"errors" | ||||||
|  | 	"fmt" | ||||||
|  | 	"time" | ||||||
|  |  | ||||||
|  | 	uuidv8 "github.com/ash3in/uuidv8" | ||||||
| 	"github.com/google/uuid" | 	"github.com/google/uuid" | ||||||
| 	nanoid "github.com/matoous/go-nanoid" | 	nanoid "github.com/matoous/go-nanoid" | ||||||
| ) | ) | ||||||
| @@ -21,7 +25,6 @@ type Type int | |||||||
| const ( | const ( | ||||||
| 	TypeUnspecified Type = iota | 	TypeUnspecified Type = iota | ||||||
| 	TypeNanoid | 	TypeNanoid | ||||||
| 	TypeUUIDv7 |  | ||||||
| 	TypeUUIDv8 | 	TypeUUIDv8 | ||||||
| ) | ) | ||||||
|  |  | ||||||
| @@ -55,14 +58,14 @@ func (g *Generator) New() (string, error) { | |||||||
| 		} | 		} | ||||||
|  |  | ||||||
| 		return nanoid.Generate(g.opts.NanoidAlphabet, g.opts.NanoidSize) | 		return nanoid.Generate(g.opts.NanoidAlphabet, g.opts.NanoidSize) | ||||||
| 	case TypeUUIDv7: |  | ||||||
| 		uid, err := uuid.NewV7() |  | ||||||
| 		if err != nil { |  | ||||||
| 			return "", err |  | ||||||
| 		} |  | ||||||
| 		return uid.String(), nil |  | ||||||
| 	case TypeUUIDv8: | 	case TypeUUIDv8: | ||||||
| 		return "", errors.New("unsupported uuid version v8") | 		timestamp := uint64(time.Now().UnixNano()) | ||||||
|  | 		clockSeq := make([]byte, 2) | ||||||
|  | 		if _, err := rand.Read(clockSeq); err != nil { | ||||||
|  | 			return "", fmt.Errorf("failed to generate random clock sequence: %w", err) | ||||||
|  | 		} | ||||||
|  | 		clockSeqValue := binary.BigEndian.Uint16(clockSeq) & 0x0FFF // Mask to 12 bits | ||||||
|  | 		return uuidv8.NewWithParams(timestamp, clockSeqValue, g.opts.UUIDNode[:], uuidv8.TimestampBits48) | ||||||
| 	} | 	} | ||||||
| 	return "", errors.New("invalid option, Type unspecified") | 	return "", errors.New("invalid option, Type unspecified") | ||||||
| } | } | ||||||
| @@ -79,15 +82,16 @@ func New(opts ...Option) (string, error) { | |||||||
| 		if options.NanoidSize <= 0 { | 		if options.NanoidSize <= 0 { | ||||||
| 			return "", errors.New("invalid option, NanoidSize must be positive integer") | 			return "", errors.New("invalid option, NanoidSize must be positive integer") | ||||||
| 		} | 		} | ||||||
|  |  | ||||||
| 		return nanoid.Generate(options.NanoidAlphabet, options.NanoidSize) | 		return nanoid.Generate(options.NanoidAlphabet, options.NanoidSize) | ||||||
| 	case TypeUUIDv7: |  | ||||||
| 		uid, err := uuid.NewV7() |  | ||||||
| 		if err != nil { |  | ||||||
| 			return "", err |  | ||||||
| 		} |  | ||||||
| 		return uid.String(), nil |  | ||||||
| 	case TypeUUIDv8: | 	case TypeUUIDv8: | ||||||
| 		return "", errors.New("unsupported uuid version v8") | 		timestamp := uint64(time.Now().UnixNano()) | ||||||
|  | 		clockSeq := make([]byte, 2) | ||||||
|  | 		if _, err := rand.Read(clockSeq); err != nil { | ||||||
|  | 			return "", fmt.Errorf("failed to generate random clock sequence: %w", err) | ||||||
|  | 		} | ||||||
|  | 		clockSeqValue := binary.BigEndian.Uint16(clockSeq) & 0x0FFF // Mask to 12 bits | ||||||
|  | 		return uuidv8.NewWithParams(timestamp, clockSeqValue, options.UUIDNode[:], uuidv8.TimestampBits48) | ||||||
| 	} | 	} | ||||||
|  |  | ||||||
| 	return "", errors.New("invalid option, Type unspecified") | 	return "", errors.New("invalid option, Type unspecified") | ||||||
| @@ -141,7 +145,7 @@ func WithUUIDNode(node [6]byte) Option { | |||||||
| // NewOptions returns new Options struct filled by opts | // NewOptions returns new Options struct filled by opts | ||||||
| func NewOptions(opts ...Option) Options { | func NewOptions(opts ...Option) Options { | ||||||
| 	options := Options{ | 	options := Options{ | ||||||
| 		Type:           TypeUUIDv7, | 		Type:           TypeUUIDv8, | ||||||
| 		NanoidAlphabet: DefaultNanoidAlphabet, | 		NanoidAlphabet: DefaultNanoidAlphabet, | ||||||
| 		NanoidSize:     DefaultNanoidSize, | 		NanoidSize:     DefaultNanoidSize, | ||||||
| 		UUIDNode:       generatedNode, | 		UUIDNode:       generatedNode, | ||||||
|   | |||||||
| @@ -489,74 +489,35 @@ func URLMap(query string) (map[string]interface{}, error) { | |||||||
| 	return mp.(map[string]interface{}), nil | 	return mp.(map[string]interface{}), nil | ||||||
| } | } | ||||||
|  |  | ||||||
| // FlattenMap flattens a nested map into a single-level map using dot notation for nested keys. | // FlattenMap expand key.subkey to nested map | ||||||
| // In case of key conflicts, all nested levels will be discarded in favor of the first-level key. | func FlattenMap(a map[string]interface{}) map[string]interface{} { | ||||||
| // | 	// preprocess map | ||||||
| // Example #1: | 	nb := make(map[string]interface{}, len(a)) | ||||||
| // | 	for k, v := range a { | ||||||
| //	Input: | 		ps := strings.Split(k, ".") | ||||||
| //	  { | 		if len(ps) == 1 { | ||||||
| //	    "user.name": "alex", | 			nb[k] = v | ||||||
| //	    "user.document.id": "document_id" |  | ||||||
| //	    "user.document.number": "document_number" |  | ||||||
| //	  } |  | ||||||
| //	Output: |  | ||||||
| //	  { |  | ||||||
| //	    "user": { |  | ||||||
| //	      "name": "alex", |  | ||||||
| //	      "document": { |  | ||||||
| //	        "id": "document_id" |  | ||||||
| //	        "number": "document_number" |  | ||||||
| //	      } |  | ||||||
| //	    } |  | ||||||
| //	  } |  | ||||||
| // |  | ||||||
| // Example #2 (with conflicts): |  | ||||||
| // |  | ||||||
| //	Input: |  | ||||||
| //	  { |  | ||||||
| //	    "user": "alex", |  | ||||||
| //	    "user.document.id": "document_id" |  | ||||||
| //	    "user.document.number": "document_number" |  | ||||||
| //	  } |  | ||||||
| //	Output: |  | ||||||
| //	  { |  | ||||||
| //	    "user": "alex" |  | ||||||
| //	  } |  | ||||||
| func FlattenMap(input map[string]interface{}) map[string]interface{} { |  | ||||||
| 	result := make(map[string]interface{}) |  | ||||||
|  |  | ||||||
| 	for k, v := range input { |  | ||||||
| 		parts := strings.Split(k, ".") |  | ||||||
|  |  | ||||||
| 		if len(parts) == 1 { |  | ||||||
| 			result[k] = v |  | ||||||
| 			continue | 			continue | ||||||
| 		} | 		} | ||||||
|  | 		em := make(map[string]interface{}) | ||||||
| 		current := result | 		em[ps[len(ps)-1]] = v | ||||||
|  | 		for i := len(ps) - 2; i > 0; i-- { | ||||||
| 		for i, part := range parts { | 			nm := make(map[string]interface{}) | ||||||
| 			// last element in the path | 			nm[ps[i]] = em | ||||||
| 			if i == len(parts)-1 { | 			em = nm | ||||||
| 				current[part] = v | 		} | ||||||
| 				break | 		if vm, ok := nb[ps[0]]; ok { | ||||||
| 			} | 			// nested map | ||||||
|  | 			nm := vm.(map[string]interface{}) | ||||||
| 			// initialize map for current level if not exist | 			for vk, vv := range em { | ||||||
| 			if _, ok := current[part]; !ok { | 				nm[vk] = vv | ||||||
| 				current[part] = make(map[string]interface{}) |  | ||||||
| 			} |  | ||||||
|  |  | ||||||
| 			if nested, ok := current[part].(map[string]interface{}); ok { |  | ||||||
| 				current = nested // continue to the nested map |  | ||||||
| 			} else { |  | ||||||
| 				break // if current element is not a map, ignore it |  | ||||||
| 			} | 			} | ||||||
|  | 			nb[ps[0]] = nm | ||||||
|  | 		} else { | ||||||
|  | 			nb[ps[0]] = em | ||||||
| 		} | 		} | ||||||
| 	} | 	} | ||||||
|  | 	return nb | ||||||
| 	return result |  | ||||||
| } | } | ||||||
|  |  | ||||||
| /* | /* | ||||||
|   | |||||||
| @@ -6,7 +6,6 @@ import ( | |||||||
| 	"testing" | 	"testing" | ||||||
| 	"time" | 	"time" | ||||||
|  |  | ||||||
| 	"github.com/stretchr/testify/require" |  | ||||||
| 	rutil "go.unistack.org/micro/v4/util/reflect" | 	rutil "go.unistack.org/micro/v4/util/reflect" | ||||||
| ) | ) | ||||||
|  |  | ||||||
| @@ -320,140 +319,3 @@ func TestIsZero(t *testing.T) { | |||||||
|  |  | ||||||
| 	// t.Logf("XX %#+v\n", ok) | 	// t.Logf("XX %#+v\n", ok) | ||||||
| } | } | ||||||
|  |  | ||||||
| func TestFlattenMap(t *testing.T) { |  | ||||||
| 	tests := []struct { |  | ||||||
| 		name     string |  | ||||||
| 		input    map[string]interface{} |  | ||||||
| 		expected map[string]interface{} |  | ||||||
| 	}{ |  | ||||||
| 		{ |  | ||||||
| 			name:     "empty map", |  | ||||||
| 			input:    map[string]interface{}{}, |  | ||||||
| 			expected: map[string]interface{}{}, |  | ||||||
| 		}, |  | ||||||
| 		{ |  | ||||||
| 			name:     "nil map", |  | ||||||
| 			input:    nil, |  | ||||||
| 			expected: map[string]interface{}{}, |  | ||||||
| 		}, |  | ||||||
| 		{ |  | ||||||
| 			name: "single level", |  | ||||||
| 			input: map[string]interface{}{ |  | ||||||
| 				"username": "username", |  | ||||||
| 				"password": "password", |  | ||||||
| 			}, |  | ||||||
| 			expected: map[string]interface{}{ |  | ||||||
| 				"username": "username", |  | ||||||
| 				"password": "password", |  | ||||||
| 			}, |  | ||||||
| 		}, |  | ||||||
| 		{ |  | ||||||
| 			name: "two level", |  | ||||||
| 			input: map[string]interface{}{ |  | ||||||
| 				"order_id":      "order_id", |  | ||||||
| 				"user.name":     "username", |  | ||||||
| 				"user.password": "password", |  | ||||||
| 			}, |  | ||||||
| 			expected: map[string]interface{}{ |  | ||||||
| 				"order_id": "order_id", |  | ||||||
| 				"user": map[string]interface{}{ |  | ||||||
| 					"name":     "username", |  | ||||||
| 					"password": "password", |  | ||||||
| 				}, |  | ||||||
| 			}, |  | ||||||
| 		}, |  | ||||||
| 		{ |  | ||||||
| 			name: "three level", |  | ||||||
| 			input: map[string]interface{}{ |  | ||||||
| 				"order_id":             "order_id", |  | ||||||
| 				"user.name":            "username", |  | ||||||
| 				"user.password":        "password", |  | ||||||
| 				"user.document.id":     "document_id", |  | ||||||
| 				"user.document.number": "document_number", |  | ||||||
| 			}, |  | ||||||
| 			expected: map[string]interface{}{ |  | ||||||
| 				"order_id": "order_id", |  | ||||||
| 				"user": map[string]interface{}{ |  | ||||||
| 					"name":     "username", |  | ||||||
| 					"password": "password", |  | ||||||
| 					"document": map[string]interface{}{ |  | ||||||
| 						"id":     "document_id", |  | ||||||
| 						"number": "document_number", |  | ||||||
| 					}, |  | ||||||
| 				}, |  | ||||||
| 			}, |  | ||||||
| 		}, |  | ||||||
| 		{ |  | ||||||
| 			name: "four level", |  | ||||||
| 			input: map[string]interface{}{ |  | ||||||
| 				"order_id":                    "order_id", |  | ||||||
| 				"user.name":                   "username", |  | ||||||
| 				"user.password":               "password", |  | ||||||
| 				"user.document.id":            "document_id", |  | ||||||
| 				"user.document.number":        "document_number", |  | ||||||
| 				"user.info.permissions.read":  "available", |  | ||||||
| 				"user.info.permissions.write": "available", |  | ||||||
| 			}, |  | ||||||
| 			expected: map[string]interface{}{ |  | ||||||
| 				"order_id": "order_id", |  | ||||||
| 				"user": map[string]interface{}{ |  | ||||||
| 					"name":     "username", |  | ||||||
| 					"password": "password", |  | ||||||
| 					"document": map[string]interface{}{ |  | ||||||
| 						"id":     "document_id", |  | ||||||
| 						"number": "document_number", |  | ||||||
| 					}, |  | ||||||
| 					"info": map[string]interface{}{ |  | ||||||
| 						"permissions": map[string]interface{}{ |  | ||||||
| 							"read":  "available", |  | ||||||
| 							"write": "available", |  | ||||||
| 						}, |  | ||||||
| 					}, |  | ||||||
| 				}, |  | ||||||
| 			}, |  | ||||||
| 		}, |  | ||||||
| 		{ |  | ||||||
| 			name: "key conflicts", |  | ||||||
| 			input: map[string]interface{}{ |  | ||||||
| 				"user":          "user", |  | ||||||
| 				"user.name":     "username", |  | ||||||
| 				"user.password": "password", |  | ||||||
| 			}, |  | ||||||
| 			expected: map[string]interface{}{ |  | ||||||
| 				"user": "user", |  | ||||||
| 			}, |  | ||||||
| 		}, |  | ||||||
| 		{ |  | ||||||
| 			name: "overwriting conflicts", |  | ||||||
| 			input: map[string]interface{}{ |  | ||||||
| 				"order_id":             "order_id", |  | ||||||
| 				"user.document.id":     "document_id", |  | ||||||
| 				"user.document.number": "document_number", |  | ||||||
| 				"user.info.address":    "address", |  | ||||||
| 				"user.info.phone":      "phone", |  | ||||||
| 			}, |  | ||||||
| 			expected: map[string]interface{}{ |  | ||||||
| 				"order_id": "order_id", |  | ||||||
| 				"user": map[string]interface{}{ |  | ||||||
| 					"document": map[string]interface{}{ |  | ||||||
| 						"id":     "document_id", |  | ||||||
| 						"number": "document_number", |  | ||||||
| 					}, |  | ||||||
| 					"info": map[string]interface{}{ |  | ||||||
| 						"address": "address", |  | ||||||
| 						"phone":   "phone", |  | ||||||
| 					}, |  | ||||||
| 				}, |  | ||||||
| 			}, |  | ||||||
| 		}, |  | ||||||
| 	} |  | ||||||
|  |  | ||||||
| 	for _, tt := range tests { |  | ||||||
| 		t.Run(tt.name, func(t *testing.T) { |  | ||||||
| 			for range 100 { // need to exclude the impact of key order in the map on the test. |  | ||||||
| 				require.Equal(t, tt.expected, rutil.FlattenMap(tt.input)) |  | ||||||
| 			} |  | ||||||
| 		}) |  | ||||||
| 	} |  | ||||||
| } |  | ||||||
|   | |||||||
| @@ -14,7 +14,7 @@ type Buffer struct { | |||||||
| 	vals    []*Entry | 	vals    []*Entry | ||||||
| 	size    int | 	size    int | ||||||
|  |  | ||||||
| 	mu sync.RWMutex | 	sync.RWMutex | ||||||
| } | } | ||||||
|  |  | ||||||
| // Entry is ring buffer data entry | // Entry is ring buffer data entry | ||||||
| @@ -35,8 +35,8 @@ type Stream struct { | |||||||
|  |  | ||||||
| // Put adds a new value to ring buffer | // Put adds a new value to ring buffer | ||||||
| func (b *Buffer) Put(v interface{}) { | func (b *Buffer) Put(v interface{}) { | ||||||
| 	b.mu.Lock() | 	b.Lock() | ||||||
| 	defer b.mu.Unlock() | 	defer b.Unlock() | ||||||
|  |  | ||||||
| 	// append to values | 	// append to values | ||||||
| 	entry := &Entry{ | 	entry := &Entry{ | ||||||
| @@ -63,8 +63,8 @@ func (b *Buffer) Put(v interface{}) { | |||||||
|  |  | ||||||
| // Get returns the last n entries | // Get returns the last n entries | ||||||
| func (b *Buffer) Get(n int) []*Entry { | func (b *Buffer) Get(n int) []*Entry { | ||||||
| 	b.mu.RLock() | 	b.RLock() | ||||||
| 	defer b.mu.RUnlock() | 	defer b.RUnlock() | ||||||
|  |  | ||||||
| 	// reset any invalid values | 	// reset any invalid values | ||||||
| 	if n > len(b.vals) || n < 0 { | 	if n > len(b.vals) || n < 0 { | ||||||
| @@ -80,8 +80,8 @@ func (b *Buffer) Get(n int) []*Entry { | |||||||
|  |  | ||||||
| // Since returns the entries since a specific time | // Since returns the entries since a specific time | ||||||
| func (b *Buffer) Since(t time.Time) []*Entry { | func (b *Buffer) Since(t time.Time) []*Entry { | ||||||
| 	b.mu.RLock() | 	b.RLock() | ||||||
| 	defer b.mu.RUnlock() | 	defer b.RUnlock() | ||||||
|  |  | ||||||
| 	// return all the values | 	// return all the values | ||||||
| 	if t.IsZero() { | 	if t.IsZero() { | ||||||
| @@ -109,8 +109,8 @@ func (b *Buffer) Since(t time.Time) []*Entry { | |||||||
| // Stream logs from the buffer | // Stream logs from the buffer | ||||||
| // Close the channel when you want to stop | // Close the channel when you want to stop | ||||||
| func (b *Buffer) Stream() (<-chan *Entry, chan bool) { | func (b *Buffer) Stream() (<-chan *Entry, chan bool) { | ||||||
| 	b.mu.Lock() | 	b.Lock() | ||||||
| 	defer b.mu.Unlock() | 	defer b.Unlock() | ||||||
|  |  | ||||||
| 	entries := make(chan *Entry, 128) | 	entries := make(chan *Entry, 128) | ||||||
| 	id := id.MustNew() | 	id := id.MustNew() | ||||||
|   | |||||||
| @@ -24,7 +24,7 @@ type stream struct { | |||||||
| 	err     error | 	err     error | ||||||
| 	request *request | 	request *request | ||||||
|  |  | ||||||
| 	mu sync.RWMutex | 	sync.RWMutex | ||||||
| } | } | ||||||
|  |  | ||||||
| type request struct { | type request struct { | ||||||
| @@ -57,9 +57,9 @@ func (s *stream) Request() server.Request { | |||||||
| func (s *stream) Send(v interface{}) error { | func (s *stream) Send(v interface{}) error { | ||||||
| 	err := s.Stream.SendMsg(v) | 	err := s.Stream.SendMsg(v) | ||||||
| 	if err != nil { | 	if err != nil { | ||||||
| 		s.mu.Lock() | 		s.Lock() | ||||||
| 		s.err = err | 		s.err = err | ||||||
| 		s.mu.Unlock() | 		s.Unlock() | ||||||
| 	} | 	} | ||||||
| 	return err | 	return err | ||||||
| } | } | ||||||
| @@ -68,17 +68,17 @@ func (s *stream) Send(v interface{}) error { | |||||||
| func (s *stream) Recv(v interface{}) error { | func (s *stream) Recv(v interface{}) error { | ||||||
| 	err := s.Stream.RecvMsg(v) | 	err := s.Stream.RecvMsg(v) | ||||||
| 	if err != nil { | 	if err != nil { | ||||||
| 		s.mu.Lock() | 		s.Lock() | ||||||
| 		s.err = err | 		s.err = err | ||||||
| 		s.mu.Unlock() | 		s.Unlock() | ||||||
| 	} | 	} | ||||||
| 	return err | 	return err | ||||||
| } | } | ||||||
|  |  | ||||||
| // Error returns error that stream holds | // Error returns error that stream holds | ||||||
| func (s *stream) Error() error { | func (s *stream) Error() error { | ||||||
| 	s.mu.RLock() | 	s.RLock() | ||||||
| 	defer s.mu.RUnlock() | 	defer s.RUnlock() | ||||||
| 	return s.err | 	return s.err | ||||||
| } | } | ||||||
|  |  | ||||||
|   | |||||||
| @@ -6,7 +6,7 @@ import ( | |||||||
| 	"strconv" | 	"strconv" | ||||||
| 	"time" | 	"time" | ||||||
|  |  | ||||||
| 	"github.com/goccy/go-yaml" | 	"gopkg.in/yaml.v3" | ||||||
| ) | ) | ||||||
|  |  | ||||||
| type Duration int64 | type Duration int64 | ||||||
| @@ -58,9 +58,9 @@ func (d Duration) MarshalYAML() (interface{}, error) { | |||||||
| 	return time.Duration(d).String(), nil | 	return time.Duration(d).String(), nil | ||||||
| } | } | ||||||
|  |  | ||||||
| func (d *Duration) UnmarshalYAML(data []byte) error { | func (d *Duration) UnmarshalYAML(n *yaml.Node) error { | ||||||
| 	var v interface{} | 	var v interface{} | ||||||
| 	if err := yaml.Unmarshal(data, &v); err != nil { | 	if err := yaml.Unmarshal([]byte(n.Value), &v); err != nil { | ||||||
| 		return err | 		return err | ||||||
| 	} | 	} | ||||||
| 	switch value := v.(type) { | 	switch value := v.(type) { | ||||||
|   | |||||||
| @@ -6,7 +6,7 @@ import ( | |||||||
| 	"testing" | 	"testing" | ||||||
| 	"time" | 	"time" | ||||||
|  |  | ||||||
| 	"github.com/goccy/go-yaml" | 	"gopkg.in/yaml.v3" | ||||||
| ) | ) | ||||||
|  |  | ||||||
| func TestMarshalYAML(t *testing.T) { | func TestMarshalYAML(t *testing.T) { | ||||||
|   | |||||||
| @@ -6,18 +6,18 @@ import ( | |||||||
| 	"strings" | 	"strings" | ||||||
| 	"sync" | 	"sync" | ||||||
| 	"sync/atomic" | 	"sync/atomic" | ||||||
|  | 	"time" | ||||||
|  |  | ||||||
| 	"go.unistack.org/micro/v4/meter" | 	"go.unistack.org/micro/v4/meter" | ||||||
| 	"go.unistack.org/micro/v4/semconv" | 	"go.unistack.org/micro/v4/semconv" | ||||||
| ) | ) | ||||||
|  |  | ||||||
| func unregisterMetrics(size int) { | var ( | ||||||
| 	meter.DefaultMeter.Unregister(semconv.PoolGetTotal, "capacity", strconv.Itoa(size)) | 	pools   = make([]Statser, 0) | ||||||
| 	meter.DefaultMeter.Unregister(semconv.PoolPutTotal, "capacity", strconv.Itoa(size)) | 	poolsMu sync.Mutex | ||||||
| 	meter.DefaultMeter.Unregister(semconv.PoolMisTotal, "capacity", strconv.Itoa(size)) | ) | ||||||
| 	meter.DefaultMeter.Unregister(semconv.PoolRetTotal, "capacity", strconv.Itoa(size)) |  | ||||||
| } |  | ||||||
|  |  | ||||||
|  | // Stats struct | ||||||
| type Stats struct { | type Stats struct { | ||||||
| 	Get uint64 | 	Get uint64 | ||||||
| 	Put uint64 | 	Put uint64 | ||||||
| @@ -25,13 +25,41 @@ type Stats struct { | |||||||
| 	Ret uint64 | 	Ret uint64 | ||||||
| } | } | ||||||
|  |  | ||||||
|  | // Statser provides buffer pool stats | ||||||
|  | type Statser interface { | ||||||
|  | 	Stats() Stats | ||||||
|  | 	Cap() int | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func init() { | ||||||
|  | 	go newStatsMeter() | ||||||
|  | } | ||||||
|  |  | ||||||
|  | func newStatsMeter() { | ||||||
|  | 	ticker := time.NewTicker(meter.DefaultMeterStatsInterval) | ||||||
|  | 	defer ticker.Stop() | ||||||
|  |  | ||||||
|  | 	for range ticker.C { | ||||||
|  | 		poolsMu.Lock() | ||||||
|  | 		for _, st := range pools { | ||||||
|  | 			stats := st.Stats() | ||||||
|  | 			meter.DefaultMeter.Counter(semconv.PoolGetTotal, "capacity", strconv.Itoa(st.Cap())).Set(stats.Get) | ||||||
|  | 			meter.DefaultMeter.Counter(semconv.PoolPutTotal, "capacity", strconv.Itoa(st.Cap())).Set(stats.Put) | ||||||
|  | 			meter.DefaultMeter.Counter(semconv.PoolMisTotal, "capacity", strconv.Itoa(st.Cap())).Set(stats.Mis) | ||||||
|  | 			meter.DefaultMeter.Counter(semconv.PoolRetTotal, "capacity", strconv.Itoa(st.Cap())).Set(stats.Ret) | ||||||
|  | 		} | ||||||
|  | 		poolsMu.Unlock() | ||||||
|  | 	} | ||||||
|  | } | ||||||
|  |  | ||||||
|  | var ( | ||||||
|  | 	_ Statser = (*BytePool)(nil) | ||||||
|  | 	_ Statser = (*BytesPool)(nil) | ||||||
|  | 	_ Statser = (*StringsPool)(nil) | ||||||
|  | ) | ||||||
|  |  | ||||||
| type Pool[T any] struct { | type Pool[T any] struct { | ||||||
| 	p   *sync.Pool | 	p *sync.Pool | ||||||
| 	get *atomic.Uint64 |  | ||||||
| 	put *atomic.Uint64 |  | ||||||
| 	mis *atomic.Uint64 |  | ||||||
| 	ret *atomic.Uint64 |  | ||||||
| 	c   int |  | ||||||
| } | } | ||||||
|  |  | ||||||
| func (p Pool[T]) Put(t T) { | func (p Pool[T]) Put(t T) { | ||||||
| @@ -42,82 +70,37 @@ func (p Pool[T]) Get() T { | |||||||
| 	return p.p.Get().(T) | 	return p.p.Get().(T) | ||||||
| } | } | ||||||
|  |  | ||||||
| func NewPool[T any](fn func() T, size int) Pool[T] { | func NewPool[T any](fn func() T) Pool[T] { | ||||||
| 	p := Pool[T]{ | 	return Pool[T]{ | ||||||
| 		c:   size, | 		p: &sync.Pool{ | ||||||
| 		get: &atomic.Uint64{}, | 			New: func() interface{} { | ||||||
| 		put: &atomic.Uint64{}, | 				return fn() | ||||||
| 		mis: &atomic.Uint64{}, | 			}, | ||||||
| 		ret: &atomic.Uint64{}, |  | ||||||
| 	} |  | ||||||
|  |  | ||||||
| 	p.p = &sync.Pool{ |  | ||||||
| 		New: func() interface{} { |  | ||||||
| 			p.mis.Add(1) |  | ||||||
| 			return fn() |  | ||||||
| 		}, | 		}, | ||||||
| 	} | 	} | ||||||
|  |  | ||||||
| 	meter.DefaultMeter.Gauge(semconv.PoolGetTotal, func() float64 { |  | ||||||
| 		return float64(p.get.Load()) |  | ||||||
| 	}, "capacity", strconv.Itoa(p.c)) |  | ||||||
|  |  | ||||||
| 	meter.DefaultMeter.Gauge(semconv.PoolPutTotal, func() float64 { |  | ||||||
| 		return float64(p.put.Load()) |  | ||||||
| 	}, "capacity", strconv.Itoa(p.c)) |  | ||||||
|  |  | ||||||
| 	meter.DefaultMeter.Gauge(semconv.PoolMisTotal, func() float64 { |  | ||||||
| 		return float64(p.mis.Load()) |  | ||||||
| 	}, "capacity", strconv.Itoa(p.c)) |  | ||||||
|  |  | ||||||
| 	meter.DefaultMeter.Gauge(semconv.PoolRetTotal, func() float64 { |  | ||||||
| 		return float64(p.ret.Load()) |  | ||||||
| 	}, "capacity", strconv.Itoa(p.c)) |  | ||||||
|  |  | ||||||
| 	return p |  | ||||||
| } | } | ||||||
|  |  | ||||||
| type BytePool struct { | type BytePool struct { | ||||||
| 	p   *sync.Pool | 	p   *sync.Pool | ||||||
| 	get *atomic.Uint64 | 	get uint64 | ||||||
| 	put *atomic.Uint64 | 	put uint64 | ||||||
| 	mis *atomic.Uint64 | 	mis uint64 | ||||||
| 	ret *atomic.Uint64 | 	ret uint64 | ||||||
| 	c   int | 	c   int | ||||||
| } | } | ||||||
|  |  | ||||||
| func NewBytePool(size int) *BytePool { | func NewBytePool(size int) *BytePool { | ||||||
| 	p := &BytePool{ | 	p := &BytePool{c: size} | ||||||
| 		c:   size, |  | ||||||
| 		get: &atomic.Uint64{}, |  | ||||||
| 		put: &atomic.Uint64{}, |  | ||||||
| 		mis: &atomic.Uint64{}, |  | ||||||
| 		ret: &atomic.Uint64{}, |  | ||||||
| 	} |  | ||||||
| 	p.p = &sync.Pool{ | 	p.p = &sync.Pool{ | ||||||
| 		New: func() interface{} { | 		New: func() interface{} { | ||||||
| 			p.mis.Add(1) | 			atomic.AddUint64(&p.mis, 1) | ||||||
| 			b := make([]byte, 0, size) | 			b := make([]byte, 0, size) | ||||||
| 			return &b | 			return &b | ||||||
| 		}, | 		}, | ||||||
| 	} | 	} | ||||||
|  | 	poolsMu.Lock() | ||||||
| 	meter.DefaultMeter.Gauge(semconv.PoolGetTotal, func() float64 { | 	pools = append(pools, p) | ||||||
| 		return float64(p.get.Load()) | 	poolsMu.Unlock() | ||||||
| 	}, "capacity", strconv.Itoa(p.c)) |  | ||||||
|  |  | ||||||
| 	meter.DefaultMeter.Gauge(semconv.PoolPutTotal, func() float64 { |  | ||||||
| 		return float64(p.put.Load()) |  | ||||||
| 	}, "capacity", strconv.Itoa(p.c)) |  | ||||||
|  |  | ||||||
| 	meter.DefaultMeter.Gauge(semconv.PoolMisTotal, func() float64 { |  | ||||||
| 		return float64(p.mis.Load()) |  | ||||||
| 	}, "capacity", strconv.Itoa(p.c)) |  | ||||||
|  |  | ||||||
| 	meter.DefaultMeter.Gauge(semconv.PoolRetTotal, func() float64 { |  | ||||||
| 		return float64(p.ret.Load()) |  | ||||||
| 	}, "capacity", strconv.Itoa(p.c)) |  | ||||||
|  |  | ||||||
| 	return p | 	return p | ||||||
| } | } | ||||||
|  |  | ||||||
| @@ -127,73 +110,49 @@ func (p *BytePool) Cap() int { | |||||||
|  |  | ||||||
| func (p *BytePool) Stats() Stats { | func (p *BytePool) Stats() Stats { | ||||||
| 	return Stats{ | 	return Stats{ | ||||||
| 		Put: p.put.Load(), | 		Put: atomic.LoadUint64(&p.put), | ||||||
| 		Get: p.get.Load(), | 		Get: atomic.LoadUint64(&p.get), | ||||||
| 		Mis: p.mis.Load(), | 		Mis: atomic.LoadUint64(&p.mis), | ||||||
| 		Ret: p.ret.Load(), | 		Ret: atomic.LoadUint64(&p.ret), | ||||||
| 	} | 	} | ||||||
| } | } | ||||||
|  |  | ||||||
| func (p *BytePool) Get() *[]byte { | func (p *BytePool) Get() *[]byte { | ||||||
| 	p.get.Add(1) | 	atomic.AddUint64(&p.get, 1) | ||||||
| 	return p.p.Get().(*[]byte) | 	return p.p.Get().(*[]byte) | ||||||
| } | } | ||||||
|  |  | ||||||
| func (p *BytePool) Put(b *[]byte) { | func (p *BytePool) Put(b *[]byte) { | ||||||
| 	p.put.Add(1) | 	atomic.AddUint64(&p.put, 1) | ||||||
| 	if cap(*b) > p.c { | 	if cap(*b) > p.c { | ||||||
| 		p.ret.Add(1) | 		atomic.AddUint64(&p.ret, 1) | ||||||
| 		return | 		return | ||||||
| 	} | 	} | ||||||
| 	*b = (*b)[:0] | 	*b = (*b)[:0] | ||||||
| 	p.p.Put(b) | 	p.p.Put(b) | ||||||
| } | } | ||||||
|  |  | ||||||
| func (p *BytePool) Close() { |  | ||||||
| 	unregisterMetrics(p.c) |  | ||||||
| } |  | ||||||
|  |  | ||||||
| type BytesPool struct { | type BytesPool struct { | ||||||
| 	p   *sync.Pool | 	p   *sync.Pool | ||||||
| 	get *atomic.Uint64 | 	get uint64 | ||||||
| 	put *atomic.Uint64 | 	put uint64 | ||||||
| 	mis *atomic.Uint64 | 	mis uint64 | ||||||
| 	ret *atomic.Uint64 | 	ret uint64 | ||||||
| 	c   int | 	c   int | ||||||
| } | } | ||||||
|  |  | ||||||
| func NewBytesPool(size int) *BytesPool { | func NewBytesPool(size int) *BytesPool { | ||||||
| 	p := &BytesPool{ | 	p := &BytesPool{c: size} | ||||||
| 		c:   size, |  | ||||||
| 		get: &atomic.Uint64{}, |  | ||||||
| 		put: &atomic.Uint64{}, |  | ||||||
| 		mis: &atomic.Uint64{}, |  | ||||||
| 		ret: &atomic.Uint64{}, |  | ||||||
| 	} |  | ||||||
| 	p.p = &sync.Pool{ | 	p.p = &sync.Pool{ | ||||||
| 		New: func() interface{} { | 		New: func() interface{} { | ||||||
| 			p.mis.Add(1) | 			atomic.AddUint64(&p.mis, 1) | ||||||
| 			b := bytes.NewBuffer(make([]byte, 0, size)) | 			b := bytes.NewBuffer(make([]byte, 0, size)) | ||||||
| 			return b | 			return b | ||||||
| 		}, | 		}, | ||||||
| 	} | 	} | ||||||
|  | 	poolsMu.Lock() | ||||||
| 	meter.DefaultMeter.Gauge(semconv.PoolGetTotal, func() float64 { | 	pools = append(pools, p) | ||||||
| 		return float64(p.get.Load()) | 	poolsMu.Unlock() | ||||||
| 	}, "capacity", strconv.Itoa(p.c)) |  | ||||||
|  |  | ||||||
| 	meter.DefaultMeter.Gauge(semconv.PoolPutTotal, func() float64 { |  | ||||||
| 		return float64(p.put.Load()) |  | ||||||
| 	}, "capacity", strconv.Itoa(p.c)) |  | ||||||
|  |  | ||||||
| 	meter.DefaultMeter.Gauge(semconv.PoolMisTotal, func() float64 { |  | ||||||
| 		return float64(p.mis.Load()) |  | ||||||
| 	}, "capacity", strconv.Itoa(p.c)) |  | ||||||
|  |  | ||||||
| 	meter.DefaultMeter.Gauge(semconv.PoolRetTotal, func() float64 { |  | ||||||
| 		return float64(p.ret.Load()) |  | ||||||
| 	}, "capacity", strconv.Itoa(p.c)) |  | ||||||
|  |  | ||||||
| 	return p | 	return p | ||||||
| } | } | ||||||
|  |  | ||||||
| @@ -203,10 +162,10 @@ func (p *BytesPool) Cap() int { | |||||||
|  |  | ||||||
| func (p *BytesPool) Stats() Stats { | func (p *BytesPool) Stats() Stats { | ||||||
| 	return Stats{ | 	return Stats{ | ||||||
| 		Put: p.put.Load(), | 		Put: atomic.LoadUint64(&p.put), | ||||||
| 		Get: p.get.Load(), | 		Get: atomic.LoadUint64(&p.get), | ||||||
| 		Mis: p.mis.Load(), | 		Mis: atomic.LoadUint64(&p.mis), | ||||||
| 		Ret: p.ret.Load(), | 		Ret: atomic.LoadUint64(&p.ret), | ||||||
| 	} | 	} | ||||||
| } | } | ||||||
|  |  | ||||||
| @@ -215,43 +174,34 @@ func (p *BytesPool) Get() *bytes.Buffer { | |||||||
| } | } | ||||||
|  |  | ||||||
| func (p *BytesPool) Put(b *bytes.Buffer) { | func (p *BytesPool) Put(b *bytes.Buffer) { | ||||||
| 	p.put.Add(1) |  | ||||||
| 	if (*b).Cap() > p.c { | 	if (*b).Cap() > p.c { | ||||||
| 		p.ret.Add(1) | 		atomic.AddUint64(&p.ret, 1) | ||||||
| 		return | 		return | ||||||
| 	} | 	} | ||||||
| 	b.Reset() | 	b.Reset() | ||||||
| 	p.p.Put(b) | 	p.p.Put(b) | ||||||
| } | } | ||||||
|  |  | ||||||
| func (p *BytesPool) Close() { |  | ||||||
| 	unregisterMetrics(p.c) |  | ||||||
| } |  | ||||||
|  |  | ||||||
| type StringsPool struct { | type StringsPool struct { | ||||||
| 	p   *sync.Pool | 	p   *sync.Pool | ||||||
| 	get *atomic.Uint64 | 	get uint64 | ||||||
| 	put *atomic.Uint64 | 	put uint64 | ||||||
| 	mis *atomic.Uint64 | 	mis uint64 | ||||||
| 	ret *atomic.Uint64 | 	ret uint64 | ||||||
| 	c   int | 	c   int | ||||||
| } | } | ||||||
|  |  | ||||||
| func NewStringsPool(size int) *StringsPool { | func NewStringsPool(size int) *StringsPool { | ||||||
| 	p := &StringsPool{ | 	p := &StringsPool{c: size} | ||||||
| 		c:   size, |  | ||||||
| 		get: &atomic.Uint64{}, |  | ||||||
| 		put: &atomic.Uint64{}, |  | ||||||
| 		mis: &atomic.Uint64{}, |  | ||||||
| 		ret: &atomic.Uint64{}, |  | ||||||
| 	} |  | ||||||
| 	p.p = &sync.Pool{ | 	p.p = &sync.Pool{ | ||||||
| 		New: func() interface{} { | 		New: func() interface{} { | ||||||
| 			p.mis.Add(1) | 			atomic.AddUint64(&p.mis, 1) | ||||||
| 			return &strings.Builder{} | 			return &strings.Builder{} | ||||||
| 		}, | 		}, | ||||||
| 	} | 	} | ||||||
|  | 	poolsMu.Lock() | ||||||
|  | 	pools = append(pools, p) | ||||||
|  | 	poolsMu.Unlock() | ||||||
| 	return p | 	return p | ||||||
| } | } | ||||||
|  |  | ||||||
| @@ -261,28 +211,24 @@ func (p *StringsPool) Cap() int { | |||||||
|  |  | ||||||
| func (p *StringsPool) Stats() Stats { | func (p *StringsPool) Stats() Stats { | ||||||
| 	return Stats{ | 	return Stats{ | ||||||
| 		Put: p.put.Load(), | 		Put: atomic.LoadUint64(&p.put), | ||||||
| 		Get: p.get.Load(), | 		Get: atomic.LoadUint64(&p.get), | ||||||
| 		Mis: p.mis.Load(), | 		Mis: atomic.LoadUint64(&p.mis), | ||||||
| 		Ret: p.ret.Load(), | 		Ret: atomic.LoadUint64(&p.ret), | ||||||
| 	} | 	} | ||||||
| } | } | ||||||
|  |  | ||||||
| func (p *StringsPool) Get() *strings.Builder { | func (p *StringsPool) Get() *strings.Builder { | ||||||
| 	p.get.Add(1) | 	atomic.AddUint64(&p.get, 1) | ||||||
| 	return p.p.Get().(*strings.Builder) | 	return p.p.Get().(*strings.Builder) | ||||||
| } | } | ||||||
|  |  | ||||||
| func (p *StringsPool) Put(b *strings.Builder) { | func (p *StringsPool) Put(b *strings.Builder) { | ||||||
| 	p.put.Add(1) | 	atomic.AddUint64(&p.put, 1) | ||||||
| 	if b.Cap() > p.c { | 	if b.Cap() > p.c { | ||||||
| 		p.ret.Add(1) | 		atomic.AddUint64(&p.ret, 1) | ||||||
| 		return | 		return | ||||||
| 	} | 	} | ||||||
| 	b.Reset() | 	b.Reset() | ||||||
| 	p.p.Put(b) | 	p.p.Put(b) | ||||||
| } | } | ||||||
|  |  | ||||||
| func (p *StringsPool) Close() { |  | ||||||
| 	unregisterMetrics(p.c) |  | ||||||
| } |  | ||||||
|   | |||||||
		Reference in New Issue
	
	Block a user