################################################################ ## DanceQ repository on your system export DANCEQ_DIR="/path/to/DanceQ" ## g++ for linux and clang++ for ios export COMPILER="g++" ################################################################ ################################################################ ## Dense matrix operations can be done using Eigen ## -> https://eigen.tuxfamily.org/index.php?title=Main_Page export EIGEN_DIR="/path/to/eigen" ################################################################ ################################################################ ## It is possible to combine Eigen with advanced LAPACK libraries such as Intel's MKL ## -> https://www.intel.com/content/www/us/en/developer/tools/oneapi/onemkl.html export MKL_DIR="/path/to/mkl/" ################################################################ ################################################################ ## Sparse matrix operators can be done using Petsc and Slepc that are based on MPI ## -> https://petsc.org/release/ ## -> https://slepc.upv.es/ export PETSC_DIR="/path/to/petsc" export SLEPC_DIR="/path/to/slepc" export PETSC_ARCH_COMPLEX="petsc_complex" export PETSC_ARCH_REAL="petsc_real" ################################################################ ################################################################ ## This needs to be the same MPI as used for Petsc and Slepc ## If you have downloaded MPI with petsc, you can use export MPI_DIR=$PETSC_DIR/$PETSC_ARCH ## Note that $PETSC_ARCH can be either "petsc_complex" or "petsc_real" -> It has to match your application! export MPI_DIR="/path/to/mpi" export MPI_COMPILER="mpic++" ## MPI programs have to be executed with mpirun located in $MPI_DIR/bin export PATH=$MPI_DIR/bin:$PATH ################################################################