mirror of
https://github.com/tcsenpai/ollama.git
synced 2025-06-10 21:17:08 +00:00
avx2
should only add avx2
This commit is contained in:
parent
460d9857e2
commit
3d656588a7
@ -9,8 +9,8 @@ package llama
|
||||
// #cgo windows LDFLAGS: -lmsvcrt
|
||||
// #cgo avx CFLAGS: -mavx
|
||||
// #cgo avx CXXFLAGS: -mavx
|
||||
// #cgo avx2 CFLAGS: -mavx -mavx2 -mfma
|
||||
// #cgo avx2 CXXFLAGS: -mavx -mavx2 -mfma
|
||||
// #cgo avx2 CFLAGS: -mavx2 -mfma
|
||||
// #cgo avx2 CXXFLAGS: -mavx2 -mfma
|
||||
// #cgo cuda CFLAGS: -DGGML_USE_CUDA -DGGML_CUDA_DMMV_X=32 -DGGML_CUDA_PEER_MAX_BATCH_SIZE=128 -DGGML_MULTIPLATFORM -DGGML_CUDA_MMV_Y=1 -DGGML_BUILD=1
|
||||
// #cgo cuda CXXFLAGS: -std=c++11 -DGGML_USE_CUDA -DGGML_CUDA_DMMV_X=32 -DGGML_CUDA_PEER_MAX_BATCH_SIZE=128 -DGGML_MULTIPLATFORM -DGGML_CUDA_MMV_Y=1 -DGGML_BUILD=1
|
||||
// #cgo rocm CXXFLAGS: -std=c++11 -DGGML_USE_CUDA -DGGML_USE_HIPBLAS -DGGML_CUDA_DMMV_X=32 -DGGML_CUDA_PEER_MAX_BATCH_SIZE=128 -DGGML_MULTIPLATFORM -DGGML_CUDA_MMV_Y=1 -DGGML_BUILD=1
|
||||
|
Loading…
x
Reference in New Issue
Block a user